Η εμφάνιση της τεχνολογίας θα μπορούσε να οδηγήσει σε ζητήματα όπως τα deepfakes, οι προκατειλημμένοι αλγόριθμοι και η αντιγραφή στα σχολεία, αλλά προβλέπεται ότι τα προβλήματα που απορρέουν από την τεχνολογία είναι επιλύσιμα.

«Ένα πράγμα που είναι ξεκάθαρο από όλα όσα έχουν γραφτεί μέχρι στιγμής για τους κινδύνους της τεχνητής νοημοσύνης – και έχουν γραφτεί πολλά – είναι ότι κανείς δεν έχει όλες τις απαντήσεις», έγραψε ο συνιδρυτής της Microsoft Μπιλ Γκέιτς σε ανάρτησή του σε ιστολόγιο αυτή την εβδομάδα. «Ένα άλλο πράγμα που είναι σαφές για μένα είναι ότι το μέλλον της Τεχνητής Νοημοσύνης δεν είναι τόσο ζοφερό όσο νομίζουν κάποιοι ή τόσο ρόδινο όσο νομίζουν άλλοι».

Η μετάδοση από τον Γκέιτς μιας ενδιάμεσης άποψης για τους κινδύνους της τεχνητής νοημοσύνης θα μπορούσε να μετατοπίσει τη συζήτηση γύρω από την τεχνολογία μακριά από τα σενάρια καταστροφής προς μια πιο περιορισμένη ρύθμιση που να αντιμετωπίζει τους τρέχοντες κινδύνους, ακριβώς καθώς οι κυβερνήσεις σε όλο τον κόσμο παλεύουν με το πώς να ρυθμίσουν την τεχνολογία και τις πιθανές καταστροφές της. Για παράδειγμα, την Τρίτη, οι γερουσιαστές έλαβαν μια απόρρητη ενημέρωση σχετικά με την τεχνητή νοημοσύνη και τον στρατό, σύμφωνα με το CNBC.

Ο Γκέιτς είναι μία από τις πιο εξέχουσες φωνές σχετικά με την τεχνητή νοημοσύνη και τη ρύθμισή της. Εξακολουθεί επίσης να είναι στενά συνδεδεμένος με τη Microsoft, η οποία έχει επενδύσει στην OpenAI και έχει ενσωματώσει το ChatGPT της στα βασικά προϊόντα της, συμπεριλαμβανομένου του Office.

Στην ανάρτηση στο ιστολόγιο, ο Γκέιτς αναφέρει πώς αντέδρασε η κοινωνία σε προηγούμενες εξελίξεις για να υποστηρίξει ότι οι άνθρωποι έχουν προσαρμοστεί σε σημαντικές αλλαγές στο παρελθόν και θα το κάνουν και για την τεχνητή νοημοσύνη.

«Για παράδειγμα, θα έχει μεγάλο αντίκτυπο στην εκπαίδευση, αλλά το ίδιο έκαναν και οι φορητές αριθμομηχανές πριν από μερικές δεκαετίες και, πιο πρόσφατα, το να επιτρέπονται οι υπολογιστές στην τάξη», έγραψε ο Γκέιτς. Ο Γκέιτς προτείνει ότι το είδος της ρύθμισης που χρειάζεται η τεχνολογία είναι «όρια ταχύτητας και ζώνες ασφαλείας».

«Αμέσως μετά την κυκλοφορία των πρώτων αυτοκινήτων, έγινε το πρώτο αυτοκινητιστικό δυστύχημα. Αλλά δεν απαγορεύσαμε τα αυτοκίνητα – υιοθετήσαμε όρια ταχύτητας, πρότυπα ασφαλείας, απαιτήσεις αδειοδότησης, νόμους για την οδήγηση υπό την επήρεια αλκοόλ και άλλους κανόνες οδικής κυκλοφορίας», έγραψε ο Γκέιτς.

Ο Γκέιτς ανησυχεί για ορισμένες από τις προκλήσεις που προκύπτουν από την υιοθέτηση της τεχνολογίας, συμπεριλαμβανομένου του τρόπου με τον οποίο θα μπορούσε να αλλάξει τις θέσεις εργασίας των ανθρώπων, καθώς και για την «ψευδαίσθηση» ή την τάση μοντέλων όπως το ChatGPT να επινοούν γεγονότα, έγγραφα και ανθρώπους.

«Για παράδειγμα, αναφέρει το πρόβλημα των deepfakes, τα οποία χρησιμοποιούν μοντέλα τεχνητής νοημοσύνης για να επιτρέψουν στους ανθρώπους να φτιάχνουν εύκολα ψεύτικα βίντεο που υποδύονται ένα άλλο άτομο και τα οποία θα μπορούσαν να χρησιμοποιηθούν για να εξαπατήσουν ανθρώπους ή να υποδείξουν εκλογές», γράφει.

Αλλά υποψιάζεται επίσης ότι οι άνθρωποι θα γίνουν καλύτεροι στον εντοπισμό των deepfakes και αναφέρει τους ανιχνευτές deepfake που αναπτύσσονται από την Intel και την DARPA, έναν κυβερνητικό χρηματοδότη. Προτείνει ρύθμιση που θα περιγράφει με σαφήνεια τι είδους deepfakes είναι νόμιμο να γίνονται.

Ανησυχεί επίσης για την ικανότητα του κώδικα που δημιουργείται από τεχνητή νοημοσύνη να αναζητά το είδος των ευπαθειών λογισμικού που απαιτούνται για την παραβίαση υπολογιστών και προτείνει ένα παγκόσμιο ρυθμιστικό όργανο κατά το πρότυπο της Διεθνούς Υπηρεσίας Ατομικής Ενέργειας.

Διαβάστε ακόμη: 

Τι «είδε» η J.P. Morgan στην Αθήνα: Οι συναντήσεις και το αισιόδοξο μήνυμα από τις τράπεζες

Κυριάκος Μητσοτάκης: Άμεσα οι 10.000 προσλήψεις στον χώρο της υγείας (pics)

Ρεύμα: Είσοδος στο «κρας τεστ» του καύσωνα με υψηλές τιμές

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφθείτε το Πρώτο ΘΕΜΑ