Η δημόσια συζήτηση για την τεχνητή νοημοσύνη ανάμεσα σε δύο άκρα: από τη μια, η υπόσχεση μιας τεχνολογίας που θα αλλάξει ριζικά την οικονομία· από την άλλη, η προειδοποίηση ότι μπορεί να μετατραπεί σε υπαρξιακό κίνδυνο. Σχεδόν κάθε μήνα, κάποιος ισχυρός παράγοντας του κλάδου προειδοποιεί για απειλές που ξεπερνούν τα στενά όρια της τεχνολογίας. Κάποιες τοποθετήσεις είναι ασαφείς, άλλες ίσως εξυπηρετούν ιδιοτελή συμφέροντα. Υπάρχουν όμως και προειδοποιήσεις που δύσκολα αγνοούνται.
Την περασμένη εβδομάδα, έμπειροι ερευνητές ασφάλειας της τεχνητής νοημοσύνης υπέβαλαν τις παραιτήσεις τους, εκφράζοντας φόβους ότι η εμπορική πίεση οδηγεί τις εταιρείες να θέτουν σε δεύτερη μοίρα τη θωράκιση των προϊόντων τους. Σε βραχυπρόθεσμο ορίζοντα, αυτό μεταφράζεται σε μια επιθετική «ενσωμάτωση» τεχνολογιών με στόχο τα άμεσα έσοδα.
Chatbots, διαφημίσεις και ο κίνδυνος χειραγώγησης
Η κυριαρχία των chatbots ως βασικής διεπαφής ανάμεσα στον χρήστη και την τεχνητή νοημοσύνη δεν ήταν ουδέτερη επιλογή. Εξυπηρετεί τη βαθύτερη εμπλοκή του κοινού και αυξάνει τον χρόνο αλληλεπίδρασης — άρα και τις ευκαιρίες εμπορικής αξιοποίησης.
Η ερευνήτρια της OpenAI, Zoë Hitzig, προειδοποίησε ότι η εισαγωγή διαφημίσεων σε αυτό το περιβάλλον ενέχει κινδύνους χειραγώγησης. Η εταιρεία υποστηρίζει ότι οι διαφημίσεις δεν επηρεάζουν τις απαντήσεις του ChatGPT. Ωστόσο, όπως έχει δείξει η εμπειρία των μέσων κοινωνικής δικτύωσης, οι εμπορικές πρακτικές μπορεί να γίνουν λιγότερο ορατές και πιο ψυχολογικά στοχευμένες.
Παράλληλα, η OpenAI απέλυσε πρόσφατα τον εκτελεστικό της διευθυντή Ryan Beiermeister για «σεξουαλικές διακρίσεις», ενώ δημοσιεύματα αναφέρουν ότι είχε αντιταχθεί σθεναρά στη διάθεση περιεχομένου για ενηλίκους. Την ίδια στιγμή, η παρατεταμένη λειτουργία εργαλείων όπως το Grok του Έλον Μασκ, παρά τις καταγγελίες για κακή χρήση, εγείρει ερωτήματα για το κατά πόσο τα επιχειρηματικά κίνητρα υπερισχύουν των ηθικών φραγμών.
Η εμπειρία δείχνει ότι όταν η επιδίωξη του κέρδους γίνεται φρενήρης, εισάγει συστημικές προκαταλήψεις. Δεν υπάρχει λόγος να πιστεύει κανείς ότι η τεχνητή νοημοσύνη θα αποτελέσει εξαίρεση.
Δεν είναι μεμονωμένο φαινόμενο
Το ζήτημα δεν αφορά μία μόνο εταιρεία. Σε μια λιγότερο συγκεκριμένη αλλά εξίσου ανησυχητική επιστολή παραίτησης, ο ερευνητής ασφάλειας της Anthropic, Mrinank Sharma, μίλησε για έναν «κόσμο σε κίνδυνο» και για το πόσο δύσκολο είναι «να αφήσουμε πραγματικά τις αξίες μας να καθοδηγούν τις πράξεις μας».
Η OpenAI ξεκίνησε ως μη κερδοσκοπικός οργανισμός, πριν στραφεί σε εμπορικό μοντέλο το 2019. Η Anthropic παρουσιάστηκε ως η πιο προσεκτική και ασφαλής εναλλακτική. Ωστόσο, η αποχώρηση του Sharma υποδηλώνει ότι ακόμη και εταιρείες που ιδρύθηκαν με αυτοσυγκράτηση δυσκολεύονται να αντισταθούν στη βαρύτητα των κεφαλαίων και των αποδόσεων.
Κεφάλαια, πίεση και ρυθμιστικό κενό
Η αιτία αυτής της μετατόπισης είναι προφανής: οι εταιρείες καταναλώνουν επενδυτικά κεφάλαια με πρωτοφανείς ρυθμούς, τα έσοδά τους δεν αυξάνονται αντίστοιχα γρήγορα και, παρά τις τεχνολογικές επιτυχίες, παραμένει ασαφές ποιο ακριβώς επιχειρηματικό μοντέλο θα αποφέρει βιώσιμα κέρδη. Η χρηματοπιστωτική κρίση του 2008 έδειξε πόσο επικίνδυνο μπορεί να γίνει ένα σύστημα όταν καθοδηγείται από βραχυπρόθεσμες ανάγκες και ελλιπή εποπτεία.
Η αντιμετώπιση του προβλήματος προϋποθέτει ισχυρή κρατική παρέμβαση. Η «Διεθνής Έκθεση για την Ασφάλεια της Τεχνητής Νοημοσύνης 2026» προσέφερε μια νηφάλια αποτίμηση των κινδύνων — από τον ελαττωματικό αυτοματισμό έως την παραπληροφόρηση — και πρότεινε σαφές πλαίσιο εποπτείας. Παρά τη στήριξη 60 χωρών, οι κυβερνήσεις των Ηνωμένων Πολιτειών και του Ηνωμένου Βασιλείου αρνήθηκαν να την υπογράψουν.
Το μήνυμα είναι ανησυχητικό: σε μια περίοδο όπου η τεχνητή νοημοσύνη αναδιαμορφώνει αγορές και κοινωνίες, ο πειρασμός της προστασίας του κλάδου μπορεί να υπερισχύσει της ανάγκης ελέγχου του.
Διαβάστε ακόμη
Νέο κρυφτούλι με τις προμήθειες των τραπεζών
Παγκόσμιο Χρέος: Νέο ρεκόρ στα $348 τρισ. το 2025 με ώθηση από Αμυνα και δαπάνες AI (γράφημα)
ΗΠΑ: Γιατί ο Τραμπ βάζει στο στόχαστρο τα fund που αγοράζουν σπίτια
Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα
Σχολίασε εδώ
Για να σχολιάσεις, χρησιμοποίησε ένα ψευδώνυμο.