Ο διευθύνων σύμβουλος της Anthropic, Ντάριο Αμοντέι, ο άνθρωπος πίσω από ένα από τα ισχυρότερα και πιο δημοφιλή συστήματα τεχνητής νοημοσύνης για τον παγκόσμιο επιχειρηματικό κόσμο, προειδοποιεί για έναν άμεσο και «πραγματικό κίνδυνο»: ότι η superintelligence μπορεί να προκαλέσει ζημιά σε κλίμακα πολιτισμού, αν δεν υπάρξει έγκαιρη και έξυπνη παρέμβαση.
Σε ένα δοκίμιο 38 σελίδων, που δημοσιεύθηκε τη Δευτέρα, ο Αμοντέι γράφει: «Πιστεύω ότι μπαίνουμε σε ένα τελετουργικό μετάβασης – ταραχώδες αλλά αναπόφευκτο – που θα δοκιμάσει το ποιοι είμαστε ως είδος». Και συνεχίζει: «Η ανθρωπότητα πρόκειται να αποκτήσει σχεδόν αδιανόητη ισχύ, και είναι βαθιά ασαφές αν τα κοινωνικά, πολιτικά και τεχνολογικά μας συστήματα διαθέτουν την ωριμότητα να τη διαχειριστούν».
Η Anthropic έχει αναπτύξει μερικά από τα πιο προηγμένα μεγάλα γλωσσικά μοντέλα παγκοσμίως. Τα νέα εργαλεία της, όπως το Claude Opus 4.5 και οι εφαρμογές για προγραμματισμό και συνεργασία, κυριαρχούν στις συζητήσεις της Silicon Valley και των αμερικανικών διοικήσεων. Σύμφωνα με τον ίδιο, περίπου το 90% του κώδικα για τα προϊόντα της εταιρείας γράφεται πλέον από AI — συμπεριλαμβανομένων εργαλείων που βοηθούν στη δημιουργία νέας AI.
Ο Αμοντέι, από τις πιο ηχηρές φωνές στον διάλογο για τους κινδύνους της τεχνητής νοημοσύνης, εκφράζει βαθιά ανησυχία ότι κυβερνήσεις, εταιρείες τεχνολογίας και κοινή γνώμη υποτιμούν δραματικά το τι μπορεί να πάει στραβά. Το κείμενό του αποτελεί συνέχεια του δοκιμίου του 2024 «Machines of Loving Grace», και έχει στόχο να ταρακουνήσει το δημόσιο διάλογο και να περιγράψει με σαφήνεια τους κινδύνους.
«Μια χώρα ιδιοφυιών σε ένα data center»
Ο Αμοντέι δηλώνει συγκρατημένα αισιόδοξος ότι η ανθρωπότητα μπορεί να διαχειριστεί τη μετάβαση — μόνο όμως αν οι ηγέτες της AI και τα κράτη μιλήσουν ανοιχτά και πάρουν τις απειλές πιο σοβαρά. Πιστεύει ότι μέσα στα επόμενα ένα με δύο χρόνια θα βρεθούμε αντιμέτωποι με αυτό που ο ίδιος αποκαλεί «μια χώρα ιδιοφυιών μέσα σε ένα κέντρο δεδομένων».
Με τον όρο αυτό περιγράφει μηχανές με νοημοσύνη επιπέδου βραβείου Νόμπελ σε πολλούς τομείς — από τη χημεία και τη μηχανική έως τη βιολογία — ικανές να δημιουργούν και να βελτιώνουν πράγματα αυτόνομα, συνεχώς και χωρίς ανθρώπινη παρέμβαση. «Αν η εκθετική πρόοδος συνεχιστεί», γράφει, «δεν μπορεί να περάσουν πάνω από λίγα χρόνια πριν η AI γίνει καλύτερη από τον άνθρωπο σχεδόν σε όλα».
Οι βασικοί κίνδυνοι που περιγράφει
Μαζικές απώλειες θέσεων εργασίας
Ο Αμοντέι εκτιμά ότι η AI μπορεί να ανατρέψει έως και το 50% των εισαγωγικών λευκών κολάρων θέσεων μέσα σε 1–5 χρόνια, ενώ παράλληλα ίσως αποκτήσει ικανότητες ανώτερες από κάθε άνθρωπο σε μόλις 1–2 χρόνια.
Ισχύς επιπέδου κράτους
Παρομοιάζει την AI με την εμφάνιση ενός νέου κράτους 50 εκατ. «υπεριδιοφυών» ανθρώπων. Κατά την άποψή του, ένας αξιόπιστος σύμβουλος εθνικής ασφάλειας θα χαρακτήριζε κάτι τέτοιο ως τη σοβαρότερη απειλή του τελευταίου αιώνα.
Αύξηση της τρομοκρατικής απειλής
Ιδιαίτερη ανησυχία εκφράζει για τη βιολογία, όπου η AI θα μπορούσε να καταστήσει ευκολότερη τη δημιουργία καταστροφικών επιθέσεων — ακόμη και στοχευμένων σε συγκεκριμένους πληθυσμούς.
Ενίσχυση αυταρχικών καθεστώτων
Ο Αμοντέι δηλώνει ανοιχτά ότι τον τρομάζει η προοπτική «AI-ενισχυμένου αυταρχισμού», ιδίως σε χώρες με ανεπτυγμένα συστήματα παρακολούθησης.
Ο κίνδυνος από τις ίδιες τις εταιρείες AI
Παραδέχεται ότι οι ίδιες οι εταιρείες τεχνητής νοημοσύνης αποτελούν πηγή κινδύνου, καθώς ελέγχουν τεράστια data centers, προηγμένα μοντέλα και έχουν άμεση πρόσβαση σε εκατοντάδες εκατομμύρια χρήστες.
Ο Αμοντέι καλεί εύπορους ιδιώτες και ηγέτες της τεχνολογίας να αναλάβουν ευθύνη και να χρηματοδοτήσουν λύσεις. «Η ανθρωπότητα πρέπει να ξυπνήσει», γράφει, παραδεχόμενος ότι η προσπάθεια μπορεί να αποδειχθεί μάταιη — αλλά αξίζει να γίνει. «Τα χρόνια που έρχονται θα είναι αφόρητα δύσκολα και θα μας ζητήσουν περισσότερα απ’ όσα νομίζουμε ότι μπορούμε να δώσουμε».
Διαβάστε ακόμη
Η Κομισιόν ενέκρινε το εθνικό αμυντικό σχέδιο της Ελλάδας στο πλαίσιο του «SAFE»
Πραγματικότητα η απαγόρευση του ρωσικού φυσικού αερίου στην Ευρώπη
Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα
