Στο πανεπιστήμιο Carnegie Mellon, ο καθηγητής Ζίκο Κόλτερ έχει έναν ρόλο που λίγοι θα ήθελαν να αναλάβουν. Είναι ο άνθρωπος που μπορεί να σταματήσει την κυκλοφορία του επόμενου ChatGPT, εάν το κρίνει επικίνδυνο.

Η τετραμελής Επιτροπή Ασφάλειας και Προστασίας της OpenAI, την οποία διευθύνει, διαθέτει την εξουσία να παγώνει ή να καθυστερεί την κυκλοφορία οποιουδήποτε νέου μοντέλου τεχνητής νοημοσύνης. Αν θεωρήσει ότι ένα σύστημα μπορεί να χρησιμοποιηθεί για όπλα μαζικής καταστροφής ή να βλάψει την ψυχική υγεία των χρηστών, έχει τη δύναμη να τραβήξει το φρένο.

«Δεν μιλάμε μόνο για υπαρξιακές απειλές», εξηγεί ο Κόλτερ. «Μιλάμε για το σύνολο των ζητημάτων ασφάλειας και προστασίας που προκύπτουν όταν τα συστήματα αυτά γίνονται κομμάτι της καθημερινότητας».

Η OpenAI αλλάζει δομή — και αυστηροποιεί τους ελέγχους

Ο 42χρονος επιστήμονας ανέλαβε την προεδρία της επιτροπής πριν από έναν χρόνο, όμως ο ρόλος του απέκτησε θεσμικό βάρος πρόσφατα, μετά τις ρυθμίσεις που ενέκριναν οι αρχές της Καλιφόρνια και του Ντέλαγουερ.

Η OpenAI, που μετατρέπεται σε Public Benefit Corporation για να μπορεί να αντλεί κεφάλαια πιο εύκολα, υποχρεώθηκε να εγγυηθεί ότι η ασφάλεια θα προηγείται των οικονομικών συμφερόντων. Ο Κόλτερ θα έχει πλήρη δικαιώματα παρακολούθησης των συνεδριάσεων του διοικητικού συμβουλίου και πρόσβαση σε όλες τις πληροφορίες που αφορούν αποφάσεις για την τεχνητή νοημοσύνη.

Ο γενικός εισαγγελέας της Καλιφόρνια Ρομπ Μπόντα κατέστησε σαφές ότι ο Κόλτερ είναι το μόνο φυσικό πρόσωπο που κατονομάζεται ρητά στο μνημόνιο συνεργασίας με την OpenAI — μια σπάνια θεσμική αναγνώριση σε έναν ιδιωτικό τεχνολογικό οργανισμό.

Από τη θεωρία της μηχανικής μάθησης στη γραμμή του μετώπου

Ο Κόλτερ, διευθυντής του Τμήματος Μηχανικής Μάθησης στο Carnegie Mellon, ξεκίνησε να ασχολείται με την τεχνητή νοημοσύνη στις αρχές της δεκαετίας του 2000, τότε που —όπως θυμάται— «κανείς δεν ήθελε να χρησιμοποιεί καν τον όρο AI».

Παρακολούθησε την OpenAI από τα πρώτα της βήματα, συμμετέχοντας ακόμη και στην εκδήλωση ίδρυσής της το 2015. Όμως, όπως λέει, ούτε ο ίδιος περίμενε την ταχύτητα της εξέλιξης: «Ελάχιστοι μπορούσαν να προβλέψουν την έκρηξη δυνατοτήτων και κινδύνων που βιώνουμε σήμερα».

Η επιτροπή του περιλαμβάνει και τον στρατηγό Πολ Νακασόνε, πρώην επικεφαλής της U.S. Cyber Command, ενώ ο Σαμ Άλτμαν αποχώρησε από το συμβούλιο πέρυσι, προκειμένου να διασφαλιστεί η ανεξαρτησία της ομάδας.

Κίνδυνοι που δεν έχουν προηγούμενο

Οι απειλές που απασχολούν τον Κόλτερ και την ομάδα του δεν περιορίζονται στην κυβερνοασφάλεια. Αφορούν επίσης τη διαρροή των λεγόμενων AI weights —τιμές που καθορίζουν τη λειτουργία των μοντέλων—, καθώς και το ενδεχόμενο τα συστήματα τεχνητής νοημοσύνης να επιτρέψουν σε κακόβουλους χρήστες να σχεδιάσουν βιολογικά όπλα ή να πραγματοποιήσουν κυβερνοεπιθέσεις μεγάλης κλίμακας.

Προσθέτει πως υπάρχουν και κοινωνικοί κίνδυνοι, όπως η επίδραση των chatbots στην ψυχική υγεία, ζήτημα που ήρθε ξανά στο προσκήνιο ύστερα από αγωγή στην Καλιφόρνια, όταν γονείς κατηγόρησαν το ChatGPT για την αυτοκτονία του γιου τους.

«Όλα αυτά πρέπει να αντιμετωπιστούν σοβαρά και συστηματικά. Δεν υπάρχει πια περιθώριο για εφησυχασμό», τονίζει.

Η λεπτή ισορροπία ανάμεσα στην πρόοδο και την ευθύνη

Η OpenAI βρίσκεται σε σημείο καμπής: ανάμεσα στην πίεση για ανάπτυξη κερδοφόρων προϊόντων και την ανάγκη για διαφάνεια και ασφάλεια. Οι υποστηρικτές της ηθικής τεχνητής νοημοσύνης παρακολουθούν στενά τις κινήσεις της.

Ο Νέιθαν Κάλβιν, νομικός σύμβουλος της οργάνωσης Encode, δηλώνει «συγκρατημένα αισιόδοξος». «Ο Κόλτερ έχει το υπόβαθρο και την τεχνογνωσία για τον ρόλο», σημειώνει. «Το αν οι δεσμεύσεις αυτές θα εφαρμοστούν στην πράξη ή θα μείνουν απλώς στα χαρτιά, μένει να το δούμε».

Σε κάθε περίπτωση, η OpenAI μοιάζει να αναθέτει στο πρόσωπο του Κόλτερ κάτι περισσότερο από έναν θεσμικό ρόλο: τη γραμμή άμυνας ανάμεσα στην τεχνολογική πρόοδο και τον ανθρώπινο κίνδυνο.

Διαβάστε ακόμη

Μητσοτάκης από Λονδίνο: Βασική μου υποχρέωση ο συνδυασμός δημοσιονομικής σταθερότητας και ταχείας μείωσης του χρέους

Λειψυδρία: Η σοβαρότερη κρίση της 30ετίας για την Αθήνα – Με έργα 2,5 δισ. η αντιμετώπιση

Γιατί οι ευρωπαϊκές αγορές καταγράφουν ράλι κάθε Δεκέμβριο – Θα συμβεί και το 2025; (γράφημα)

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα