Η OpenAI είναι διατεθειμένη να πληρώσει πάνω από μισό εκατομμύριο δολάρια ετησίως σε έναν άνθρωπο που θα αναλάβει να περιορίσει τις αρνητικές συνέπειες της τεχνητής νοημοσύνης.
Αν το ποσό μοιάζει υψηλό, αρκεί να σκεφτεί κανείς ποιοι είναι οι πιθανοί κίνδυνοι: απώλεια θέσεων εργασίας, παραπληροφόρηση, κατάχρηση από κακόβουλους χρήστες, περιβαλλοντική επιβάρυνση και σταδιακή διάβρωση της ανθρώπινης αυτονομίας.
Ο διευθύνων σύμβουλος Σαμ Άλτμαν χαρακτήρισε τη θέση «αγχωτική» σε ανάρτησή του στην πλατφόρμα X το Σάββατο. «Θα βουτήξεις στα βαθιά σχεδόν αμέσως», έγραψε.
Σύμφωνα με τον Άλτμαν, ο ρόλος του «επικεφαλής επιχειρησιακής ετοιμότητας» είναι «κρίσιμος σε μια ιδιαίτερα σημαντική στιγμή».
Τα νέα ρίσκα των ολοένα ισχυρότερων μοντέλων
«Τα μοντέλα βελτιώνονται με ταχύτατους ρυθμούς και πλέον μπορούν να κάνουν πολλά εξαιρετικά πράγματα, όμως αρχίζουν επίσης να παρουσιάζουν σοβαρές προκλήσεις», ανέφερε. Όπως σημείωσε, οι επιπτώσεις στην ψυχική υγεία είχαν ήδη γίνει ορατές το 2025, ενώ σήμερα τα μοντέλα γίνονται τόσο ικανά στην κυβερνοασφάλεια ώστε αρχίζουν να εντοπίζουν κρίσιμα κενά ασφαλείας.
Το ChatGPT της OpenAI συνέβαλε καθοριστικά στη διάδοση των chatbot τεχνητής νοημοσύνης στο ευρύ κοινό. Πολλοί χρήστες τα αξιοποιούν για έρευνα, συγγραφή email, οργάνωση ταξιδιών ή άλλες απλές καθημερινές εργασίες.
Ωστόσο, ορισμένοι χρήστες απευθύνονται στα chatbot ακόμη και ως εναλλακτική μορφή «θεραπείας», κάτι που σε κάποιες περιπτώσεις έχει επιδεινώσει προβλήματα ψυχικής υγείας, ενθαρρύνοντας παραληρητικές σκέψεις ή ανησυχητικές συμπεριφορές.
Ανησυχίες για την ασφάλεια και εσωτερικές αποχωρήσεις
Η OpenAI ανακοίνωσε τον Οκτώβριο ότι συνεργάζεται με επαγγελματίες ψυχικής υγείας, προκειμένου να βελτιώσει τον τρόπο με τον οποίο το ChatGPT αλληλεπιδρά με χρήστες που εμφανίζουν ανησυχητική συμπεριφορά, όπως ψύχωση ή τάσεις αυτοτραυματισμού.
Αποστολή της εταιρείας είναι η ανάπτυξη τεχνητής νοημοσύνης που θα ωφελεί όλη την ανθρωπότητα, με τα πρωτόκολλα ασφαλείας να αποτελούν βασικό πυλώνα από την ίδρυσή της. Ωστόσο, καθώς άρχισε να λανσάρει προϊόντα και αυξήθηκε η πίεση για κερδοφορία, πρώην στελέχη έχουν υποστηρίξει ότι η ασφάλεια πέρασε σε δεύτερη μοίρα.
Ο Γιαν Λάικε, πρώην επικεφαλής της ομάδας ασφάλειας που πλέον έχει διαλυθεί, ανέφερε σε ανάρτησή του τον Μάιο του 2024 ότι η OpenAI «έχασε τον προσανατολισμό της» όσον αφορά την ασφαλή ανάπτυξη της τεχνολογίας.
«Η κατασκευή μηχανών εξυπνότερων από τον άνθρωπο είναι εγγενώς επικίνδυνη», έγραψε, προσθέτοντας ότι τα τελευταία χρόνια «η κουλτούρα ασφάλειας υποχώρησε μπροστά σε εντυπωσιακά προϊόντα».
Λιγότερο από μία εβδομάδα αργότερα, και άλλος εργαζόμενος ανακοίνωσε την αποχώρησή του επικαλούμενος παρόμοιες ανησυχίες. Ο Ντάνιελ Κοκοτάιλο δήλωσε ότι παραιτήθηκε επειδή «έχανε την εμπιστοσύνη του» στο κατά πόσο η εταιρεία θα λειτουργούσε υπεύθυνα στην εποχή της γενικής τεχνητής νοημοσύνης (AGI).
Ο πρώην επικεφαλής ετοιμότητας, Αλεξάντερ Μάντρι, ανέλαβε νέο ρόλο τον Ιούλιο του 2024. Η θέση εντάσσεται στην ομάδα Safety Systems της OpenAI, η οποία αναπτύσσει μηχανισμούς προστασίας, πλαίσια αξιολόγησης και ελέγχους για τα μοντέλα της εταιρείας.
Η αμοιβή για τον νέο επικεφαλής ετοιμότητας ανέρχεται σε 555.000 δολάρια ετησίως, συν μετοχικά κίνητρα. Όπως αναφέρεται στην αγγελία, ο κάτοχος της θέσης θα έχει την άμεση ευθύνη για την ανάπτυξη και τον συντονισμό αξιολογήσεων δυνατοτήτων, μοντέλων απειλών και μηχανισμών μετριασμού των κινδύνων, σε ένα ενιαίο και λειτουργικά κλιμακούμενο σύστημα ασφάλειας.
Διαβάστε ακόμη
Άδεια: Οσα πρέπει να γνωρίζουν εργαζόμενοι και εργοδότες για τις αλλαγές από το 2026
Αργίες 2026: Πόσες χάνουν οι εργαζόμενοι τη νέα χρονιά – Ποιες γιορτές πέφτουν ημέρα Σάββατο
Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα
Σχολίασε εδώ
Για να σχολιάσεις, χρησιμοποίησε ένα ψευδώνυμο.