Συχνά προβάλλεται το εξής μοτίβο: μια εταιρεία τεχνολογίας ανακοινώνει ότι δημιούργησε ένα σύστημα τεχνητής νοημοσύνης με εξαιρετικά υψηλές δυνατότητες, το οποίο ενδέχεται να είναι επικίνδυνο εάν χρησιμοποιηθεί ανεξέλεγκτα. Τονίζεται ότι η ευρεία διάθεσή του θα μπορούσε να έχει σοβαρές συνέπειες, ωστόσο η εταιρεία διαβεβαιώνει ότι προς το παρόν διατηρεί τον έλεγχο της τεχνολογίας, επισημαίνοντας ταυτόχρονα την ύπαρξή της.
Σε αυτό το πλαίσιο εντάσσονται και οι δηλώσεις της εταιρείας Anthropic σχετικά με το μοντέλο Claude Mythos. Σύμφωνα με την εταιρεία, το συγκεκριμένο σύστημα παρουσιάζει ικανότητες εντοπισμού αδυναμιών στην κυβερνοασφάλεια που υπερβαίνουν εκείνες των ανθρώπινων ειδικών, γεγονός που θα μπορούσε να επιφέρει σημαντικές επιπτώσεις σε οικονομικό, κοινωνικό και εθνικό επίπεδο, ιδίως εάν η τεχνολογία αξιοποιηθεί κακόβουλα. Παράλληλα, ορισμένοι σχολιαστές υιοθετούν ιδιαίτερα ανησυχητική στάση, προβάλλοντας σενάρια εκτεταμένης ανασφάλειας στον ψηφιακό χώρο.
Αν και υπάρχουν ειδικοί που αμφισβητούν την ακρίβεια ή την έκταση αυτών των ισχυρισμών, η πρακτική αυτή δεν αποτελεί μεμονωμένο φαινόμενο. Εκπρόσωποι μεγάλων εταιρειών τεχνολογίας προειδοποιούν επανειλημμένα για τους δυνητικούς κινδύνους των ίδιων των προϊόντων τους, ακόμη και σε επίπεδο ευρύτερων απειλών για την κοινωνία.
Η προσέγγιση αυτή θεωρείται ασυνήθιστη για τον επιχειρηματικό κόσμο, καθώς σπάνια οι εταιρείες παρουσιάζουν τα προϊόντα τους με τρόπο που να αναδεικνύει τόσο έντονα τους πιθανούς κινδύνους τους.
Ορισμένοι επικριτές επισημαίνουν ότι οι εταιρείες προβάλλουν υπερβολικά ακραία και καταστροφικά σενάρια, με αποτέλεσμα να αποσπάται η προσοχή του κοινού από πραγματικά προβλήματα που ήδη συνδέονται με τη χρήση της τεχνητής νοημοσύνης. Από την πλευρά τους, οι ίδιες οι εταιρείες υποστηρίζουν ότι στόχος τους είναι να ενημερώσουν για πιθανούς μελλοντικούς κινδύνους και ότι δίνουν προτεραιότητα στην ασφάλεια.
Ωστόσο, άλλες απόψεις υποστηρίζουν ότι η καλλιέργεια φόβου ενδέχεται να διογκώνει τις πραγματικές δυνατότητες της τεχνολογίας, να ενισχύει την οικονομική αποτίμηση των εταιρειών και να καλλιεργεί την αντίληψη ότι δεν απαιτείται αυστηρή ρύθμιση, αφού οι ίδιες οι εταιρείες μπορούν να διαχειριστούν υπεύθυνα τους σχετικούς κινδύνους, σύμφωνα με το BBC.
«Η παρουσίαση αυτών των τεχνολογιών ως υπερβολικά επικίνδυνων μπορεί να δημιουργεί στο κοινό ένα αίσθημα αδυναμίας, ενισχύοντας την αντίληψη ότι μόνο οι ίδιες οι εταιρείες είναι σε θέση να προσφέρουν λύσεις και προστασία», επισημαίνει η Σάνον Βάλορ, καθηγήτρια ηθικής σε θέματα δεδομένων και τεχνητής νοημοσύνης στο Πανεπιστήμιο του Εδιμβούργου.
Αντιδράσεις και επαναλαμβανόμενα μοτίβα στον κλάδο
Εκπρόσωπος της Anthropic δήλωσε ότι η εταιρεία έχει ήδη τοποθετηθεί ξεκάθαρα για τα συγκεκριμένα ζητήματα. Ωστόσο, αντί να απαντήσει άμεσα στην κριτική, παρέπεμψε σε αναρτήσεις άλλων οργανισμών που υποστηρίζουν τις δυνατότητες του Mythos, χωρίς να δώσει σαφείς απαντήσεις στα βασικά ζητήματα που τέθηκαν.
Δεν είναι η πρώτη φορά που ο διευθυντής της Anthropic, Ντάριο Αμοντέι, συνδέεται με την ανάπτυξη ενός εργαλείου που η ίδια η εταιρεία του χαρακτήρισε υπερβολικά επικίνδυνο για δημόσια χρήση. Το 2019, όταν εργαζόταν στην OpenAI, παρουσιάστηκε το μοντέλο GPT-2. Τότε, ο ίδιος και άλλα στελέχη υποστήριξαν ότι δεν μπορούσε να δοθεί στη δημοσιότητα, λόγω ανησυχιών για πιθανή κακόβουλη αξιοποίησή του.
Παρά το γεγονός ότι το συγκεκριμένο σύστημα ήταν σημαντικά λιγότερο προηγμένο από μεταγενέστερα εργαλεία όπως το ChatGPT, λίγους μήνες αργότερα κυκλοφόρησε κανονικά. Αργότερα, ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, αναγνώρισε δημόσια ότι οι αρχικοί φόβοι γύρω από το GPT-2 είχαν υπερεκτιμηθεί.
Ο Σαμ Άλτμαν έχει ασκήσει κριτική στην πρακτική της Anthropic να προβάλλει την τεχνολογία της μέσα από φόβους και κινδύνους. Ωστόσο, παρόμοια ρητορική εμφανίζεται και στις δικές του τοποθετήσεις εδώ και χρόνια.
Ήδη από το 2015, είχε δηλώσει ότι η τεχνητή νοημοσύνη ενδέχεται να οδηγήσει ακόμη και σε καταστροφικά σενάρια για την ανθρωπότητα, επισημαίνοντας ταυτόχρονα τις επιχειρηματικές ευκαιρίες που δημιουργεί. Αργότερα, εξέφρασε προβληματισμό για το αν η διάθεση του ChatGPT στο ευρύ κοινό θα μπορούσε να έχει αρνητικές συνέπειες.
Το 2023, εκατοντάδες ηγετικά στελέχη του τεχνολογικού κλάδου, μεταξύ των οποίων ο Σαμ Άλτμαν, ο Ντάριο Αμοντέι, ο Μπιλ Γκέιτς και ο Ντέμις Χασάμπης της Google DeepMind, υπέγραψαν κοινή δήλωση με την οποία υπογράμμιζαν ότι ο κίνδυνος που σχετίζεται με την τεχνητή νοημοσύνη θα πρέπει να αντιμετωπίζεται ως παγκόσμια προτεραιότητα, συγκρίσιμη με απειλές όπως οι πανδημίες και ο πυρηνικός πόλεμος. Την ίδια χρονιά, προσωπικότητες όπως ο Έλον Μασκ ζήτησαν προσωρινή παύση στην ανάπτυξη προηγμένων συστημάτων τεχνητής νοημοσύνης, αν και λίγο αργότερα προχώρησαν στη δημιουργία νέων εταιρειών στον ίδιο τομέα.
Η Έμιλι Μ. Μπέντερ, καθηγήτρια στο Πανεπιστήμιο της Ουάσιγκτον και συν-συγγραφέας του βιβλίου «The AI Con», εκτιμά ότι αυτή η στάση αποτελεί μέρος ενός ευρύτερου μοτίβου υπερβολικών ισχυρισμών. Κατά την άποψή της, η έμφαση σε μελλοντικούς, υποθετικούς κινδύνους αποσπά την προσοχή από ήδη υπαρκτά ζητήματα, όπως οι περιβαλλοντικές επιπτώσεις, οι συνθήκες εργασίας και οι κοινωνικές συνέπειες της τεχνολογίας.
Σε σχετική ερώτηση, η OpenAI παρέπεμψε σε πρόσφατη τοποθέτηση του Σαμ Άλτμαν, σύμφωνα με την οποία στόχος είναι να αποφευχθεί η συγκέντρωση ισχύος σε λίγους. Όπως επισημαίνεται, οι βασικές αποφάσεις για την τεχνητή νοημοσύνη θα πρέπει να λαμβάνονται μέσα από δημοκρατικές διαδικασίες και με γνώμονα την ισότητα.
Είναι το Mythos πραγματικά τόσο κακό;
Η Anthropic αναφέρει ότι το νέο της μοντέλο έχει εντοπίσει ήδη χιλιάδες ευπάθειες υψηλής σοβαρότητας σε διάφορα τεχνολογικά συστήματα, τις οποίες, σύμφωνα με την ίδια, δεν θα εντόπιζαν εύκολα ανθρώπινοι ειδικοί. Παράλληλα, έχει ανακοινώσει συνεργασία με περισσότερες από 40 εταιρείες και οργανισμούς, με στόχο τη γρήγορη διόρθωση αυτών των αδυναμιών πριν μπορέσουν να τις εκμεταλλευτούν επιτιθέμενοι.
Εκπρόσωπος της εταιρείας ανέφερε ότι στόχος είναι η συνεργασία με φορείς που μπορούν να συμβάλουν στη βελτίωση βασικών υποδομών λογισμικού, οι οποίες αποτελούν σημαντικό μέρος του συνολικού προβλήματος ασφάλειας.
Ωστόσο, οι ισχυρισμοί αυτοί δεν γίνονται αποδεκτοί χωρίς επιφυλάξεις. Η Χάιντι Κλάαφ, επικεφαλής επιστήμονας τεχνητής νοημοσύνης στο AI Now Institute, εμφανίζεται ιδιαίτερα επιφυλακτική. Έχει εργαστεί εκτενώς στον σχεδιασμό και την αξιολόγηση εργαλείων ανάλυσης κώδικα, καθώς και στον τομέα της ψηφιακής ασφάλειας σε κρίσιμες υποδομές, όπως πυρηνικές εγκαταστάσεις.
Σύμφωνα με την ίδια, ένα από τα βασικά προβλήματα στην παρουσίαση των αποτελεσμάτων του Mythos είναι η απουσία μετρήσεων για τα ψευδώς θετικά αποτελέσματα — δηλαδή για περιπτώσεις όπου ένα σύστημα εντοπίζει λανθασμένα ένα πρόβλημα ασφαλείας. Όπως τονίζει, πρόκειται για βασικό δείκτη αξιοπιστίας σε εργαλεία κυβερνοασφάλειας, ο οποίος χρησιμοποιείται ευρέως στη βιομηχανία. Η εταιρεία, σύμφωνα με την Κλάαφ, δεν έχει δημοσιοποιήσει τέτοια στοιχεία ούτε έχει προχωρήσει σε σύγκριση του Mythos με καθιερωμένα εργαλεία που χρησιμοποιούνται εδώ και δεκαετίες.
Επιπλέον, έχουν διατυπωθεί ερωτήματα σχετικά με το αν η Anthropic καθυστέρησε την ευρύτερη διάθεση του συστήματος λόγω του υψηλού κόστους υπολογιστικής ισχύος που απαιτείται για τη λειτουργία του. Η εταιρεία δεν έχει δώσει απάντηση σε αυτές τις αναφορές.
Παρόλα αυτά, δεν αμφισβητείται πλήρως η πιθανή χρησιμότητα τέτοιων συστημάτων τεχνολογίας. Όπως σημειώνει η Κλάαφ, τα συστήματα τεχνητής νοημοσύνης «μπορούν πράγματι να συμβάλουν στη σάρωση μεγάλων βάσεων κώδικα και στην ανίχνευση αδύναμων σημείων, καθώς πρόκειται για έναν υπαρκτό και σημαντικό τομέα της κυβερνοασφάλειας». Ωστόσο, επισημαίνει ότι οι ισχυρισμοί γύρω από το Mythos δεν τεκμηριώνονται επαρκώς, με αποτέλεσμα να παραμένει ασαφές σε ποιον βαθμό ανταποκρίνονται στην πραγματική του αποτελεσματικότητα και να μην αποκλείεται το ενδεχόμενο υπερεκτίμησής του.
Οι λόγοι πίσω από την ένταση
Η ιδέα της αποφυγής μιας μελλοντικής καταστροφής αποτελεί βασικό στοιχείο της αποστολής εταιρειών όπως η OpenAI και η Anthropic. Η OpenAI ξεκίνησε ως μη κερδοσκοπικός οργανισμός με στόχο την ανάπτυξη ασφαλούς τεχνητής νοημοσύνης, πριν προηγηθούν στον χώρο άλλες μεγάλες εταιρείες τεχνολογίας όπως η Google και η Meta. Αργότερα, στελέχη που αποχώρησαν από την OpenAI ίδρυσαν την Anthropic, με βασικό επιχείρημα ότι η προηγούμενη εταιρεία δεν έδινε επαρκή έμφαση στην ασφάλεια. Σήμερα, και οι δύο οργανισμοί έχουν στραφεί σε πιο εμπορικά μοντέλα λειτουργίας, που τους φέρνουν πιο κοντά στις χρηματιστηριακές αγορές.
«Ο τρόπος με τον οποίο λειτουργεί ένας οργανισμός καθορίζεται σε μεγάλο βαθμό από τα κίνητρά του, και αυτό αποτυπώνεται και στη στάση του απέναντι στην τεχνολογία που αναπτύσσει», λέει η Βάλορ.
Έχουν υπάρξει σημαντικές αλλαγές στις αρχικές δεσμεύσεις των εταιρειών του κλάδου. Η Google έχει χαλαρώσει ορισμένους περιορισμούς σχετικά με τη χρήση τεχνητής νοημοσύνης σε στρατιωτικές εφαρμογές. Η OpenAI έχει εμπλακεί σε νομικές διαδικασίες που σχετίζονται με τη μετάβασή της από μη κερδοσκοπική σε πιο εμπορική δομή. Παράλληλα, η Anthropic έχει προσαρμόσει παλαιότερες πολιτικές της σχετικά με την ανάπτυξη μοντέλων υπό αυστηρούς όρους ασφάλειας.
«Είναι δύσκολο να πιστέψω πως οι εταιρείες αυτές θα επιλέξουν να περιορίσουν την εμπορική τους ανάπτυξη χάριν της αποφυγής ηγετικής θέσης στην αγορά», λέει η Βάλορ.
Ταυτόχρονα, η τεχνητή νοημοσύνη επεκτείνεται σε κρίσιμους τομείς όπως η υγεία, παρά τις ανησυχίες για πιθανές λανθασμένες διαγνώσεις. Η λειτουργία μεγάλων κέντρων δεδομένων αυξάνει σημαντικά την κατανάλωση ενέργειας και τις εκπομπές ρύπων, ενώ έχουν διατυπωθεί ανησυχίες για επιπτώσεις στην ψυχική υγεία χρηστών και για την αξιοπιστία περιεχομένου που παράγεται από συστήματα τεχνητής νοημοσύνης, όπως τα deepfakes.
Οι εταιρείες υποστηρίζουν ότι αντιμετωπίζουν τα ζητήματα αυτά με υπευθυνότητα και έχουν δημοσιοποιήσει σχετικές πολιτικές για την ασφάλεια, την ακρίβεια των συστημάτων και την πρόληψη καταχρήσεων. Ωστόσο, σύμφωνα με τη Βάλορ, η έντονη εστίαση σε υπαρξιακούς κινδύνους μπορεί να έχει και μια στρατηγική διάσταση. «Όταν η συζήτηση επικεντρώνεται σε ακραία σενάρια, τα υπόλοιπα προβλήματα εμφανίζονται λιγότερο σημαντικά», εξηγεί η ίδια.
«Αυτή η προσέγγιση δεν φαίνεται να έχει περιορίσει την επιρροή των εταιρειών. Αντίθετα, έχει συμβάλει στη διαμόρφωση της αντίληψης ότι οι ίδιες είναι οι μόνες που μπορούν να διαχειριστούν και να ελέγξουν την τεχνολογία, ενισχύοντας έτσι τον ρόλο τους στο οικοσύστημα της τεχνητής νοημοσύνης», προσθέτει η Βάλορ.
Ανάμεσα στην καταστροφή και την υπερβολική αισιοδοξία
Σχεδόν ταυτόχρονα με τις προειδοποιήσεις για πιθανούς κινδύνους, ορισμένα στελέχη του κλάδου περιγράφουν και ιδιαίτερα αισιόδοξα σενάρια για το μέλλον της τεχνητής νοημοσύνης. Σε δοκίμιο του 2024, ο Σαμ Άλτμαν προβλέπει ότι στο μέλλον θα μπορούσαν να λάβουν χώρα «εκπληκτικές επιτυχίες», όπως η αποκατάσταση του κλίματος, η δημιουργία αποικιών στο διάστημα και η πλήρης κατανόηση της φυσικής. Από την πλευρά του, ο Ντάριο Αμοντέι έχει μιλήσει για ένα μέλλον όπου θα υπάρχει «μια χώρα ιδιοφυιών μέσα σε ένα κέντρο δεδομένων».
Σύμφωνα με τη Σάνον Βάλορ, η ουτοπική και η καταστροφική αφήγηση λειτουργούν ως δύο πλευρές της ίδιας προσέγγισης. «Όταν οι δυνατότητες της τεχνολογίας παρουσιάζονται σε τόσο ακραία κλίμακα, γίνεται πιο δύσκολο να γίνει αντιληπτή ως κάτι που μπορεί να ρυθμιστεί ή να ελεγχθεί μέσω θεσμών και κανόνων», λέει η ίδια.
«Αυτό», όπως σημειώνει, «μπορεί να οδηγήσει στην αντίληψη ότι η κοινωνία απλώς παρακολουθεί την εξέλιξη της τεχνητής νοημοσύνης, χωρίς ουσιαστική δυνατότητα παρέμβασης, περιμένοντας να φανεί αν θα οδηγήσει σε θετικά ή αρνητικά αποτελέσματα».
«Ακόμη και η ονομασία «Mythos» παραπέμπει, σύμφωνα με αυτή την οπτική, σε αφηρημένες και σχεδόν συμβολικές έννοιες, ενισχύοντας την αίσθηση ενός τεχνολογικού αφηγήματος με χαρακτηριστικά που ξεπερνούν την καθημερινή πραγματικότητα», προσθέτει.
Διαβάστε ακόμη
Τραπεζικό alert για κενό 4 δισ. ευρώ στους πόρους του RRF
Με αυτό το απλό τεστ σε μία καρέκλα προβλέπονται κατάγματα, νοσηλείες και θνησιμότητα
Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα
Σχολίασε εδώ
Για να σχολιάσεις, χρησιμοποίησε ένα ψευδώνυμο.