Η επίδραση της τεχνητής νοημοσύνης στην πολιτική διαδικασία αποδεικνύεται βαθύτερη και ευρύτερη απ’ όσο θεωρούσαμε έως σήμερα. Νέα έρευνα του Πανεπιστημίου Κορνέλ καταδεικνύει ότι ακόμη και μια σύντομη συνομιλία με chatbot μπορεί να μεταβάλει ουσιαστικά την άποψη ενός ψηφοφόρου για έναν υποψήφιο ή μια προτεινόμενη πολιτική — άλλοτε προς το θετικό και άλλοτε προς το αρνητικό.

Σύμφωνα με τη μελέτη, που δημοσιεύθηκε στο Nature, οι προτιμήσεις των συμμετεχόντων σε πραγματικές εκλογικές αναμετρήσεις μεταβλήθηκαν έως και κατά 15 ποσοστιαίες μονάδες μετά από μία μόνο αλληλεπίδραση με chatbot. Παράλληλη έρευνα στο Science έδειξε ότι η ισχύς των chatbot πηγάζει από την ικανότητά τους να συνθέτουν περίπλοκες πληροφορίες και να τις αποδίδουν με άμεσο τρόπο — ικανότητα που φαίνεται να ξεπερνά την επιρροή των παραδοσιακών προεκλογικών εκστρατειών και της τυπικής πολιτικής διαφήμισης.

Τα ευρήματα αυτά φωτίζουν την πειστική δύναμη των chatbot, τα οποία, σύμφωνα με τον ερευνητή Ντέιβιντ Ραντ, χρησιμοποιούνται καθημερινά από πάνω από 100 εκατομμύρια ανθρώπους. Οι δύο μελέτες αποκαλύπτουν ότι τα chatbot επηρεάζουν σε μεγάλο βαθμό τις απόψεις των ψηφοφόρων επειδή μπορούν να μεταφέρουν τεράστιο όγκο πληροφοριών μέσα σε μία μόνο συνομιλία. Όσο πιο πλούσιο ήταν το περιεχόμενο, τόσο αυξανόταν η αποτελεσματικότητα — αλλά και η πιθανότητα παραγωγής ανακριβών δεδομένων.

Αυτό ενδέχεται να καταστήσει την τεχνητή νοημοσύνη «ιδιαίτερα επικίνδυνη», δήλωσε στο Nature η Λίσα Άργκαϊλ, υπολογιστική κοινωνική επιστήμονας στο Πανεπιστήμιο Περντού. Όπως αναφέρει, το αποτέλεσμα δεν είναι περισσότερη ενημέρωση, αλλά βαθύτερη παραπληροφόρηση, καθώς η κλίμακα της έρευνας υπερβαίνει κάθε προηγούμενο στις κοινωνικές επιστήμες.

Η επιρροή στην πολιτική συμπεριφορά

Η ραγδαία εξάπλωση των chatbot μετά το 2023 έχει πυροδοτήσει ανησυχίες για την ικανότητά τους να χειραγωγούν την κοινή γνώμη. Για να μελετήσουν το μέγεθος της πειστικότητάς τους, οι επιστήμονες ζήτησαν από σχεδόν 6.000 πολίτες από τον Καναδά, την Πολωνία και τις ΗΠΑ να αξιολογήσουν τις προτιμήσεις τους για υποψηφίους στις εκλογές ηγεσίας του 2024, σε κλίμακα 0–100.

Στη συνέχεια, οι συμμετέχοντες είχαν μια αμφίδρομη συνομιλία με chatbot σχεδιασμένο να υποστηρίζει συγκεκριμένο υποψήφιο. Μετά τον διάλογο, επανεκτίμησαν τη στάση τους. Πάνω από 2.300 Αμερικανοί ολοκλήρωσαν το πείραμα πριν από τις εκλογές του 2024. Όταν το chatbot υποστήριζε διαφορετικό υποψήφιο από την αρχική τους επιλογή, η μετατόπιση έφτασε τις 2–4 μονάδες — όταν οι παραδοσιακές διαφημίσεις μετακινούν συνήθως λιγότερο από μία μονάδα.

Τα αποτελέσματα των πειραμάτων

Σε κλίμακα 100 βαθμών, το μοντέλο που υποστήριζε την Κάμαλα Χάρις μετέβαλε τους πιθανούς ψηφοφόρους του Ντόναλντ Τραμπ κατά 3,9 μονάδες υπέρ της Χάρις — επίδραση σχεδόν τετραπλάσια από εκείνη των πολιτικών διαφημίσεων των εκλογών 2016–2020. Αντίστροφα, το chatbot που υποστήριζε τον Τραμπ άλλαξε τις προτιμήσεις πιθανών ψηφοφόρων της Χάρις κατά 1,51 βαθμούς.

Ακόμη μεγαλύτερη ήταν η επίδραση σε Καναδά και Πολωνία, όπου η μεταβολή έφτασε περίπου τις 10 ποσοστιαίες μονάδες. Οι ερευνητές διαπίστωσαν ότι τα chatbot χρησιμοποιούσαν διάφορες τεχνικές πειθούς, με συχνότερες την ευγένεια και την επίκληση δεδομένων. Όταν αφαιρέθηκαν τα πραγματικά στοιχεία από τις απαντήσεις, η πειστικότητά τους μειώθηκε αισθητά, δείχνοντας πόσο κρίσιμη είναι η τεκμηρίωση στη διαμόρφωση απόψεων.

Ο έλεγχος των ισχυρισμών των chatbot έδειξε ότι, αν και κατά μέσο όρο ήταν ακριβείς, τα chatbot που υποστήριζαν δεξιούς υποψηφίους παρήγαγαν περισσότερους λανθασμένους ισχυρισμούς — εύρημα που συμφωνεί με προηγούμενες μελέτες για τη διάδοση παραπληροφόρησης.

Σε άλλη έρευνα στο Science, ο Ραντ και το UK AI Security Institute ανέλυσαν σχεδόν 77.000 Βρετανούς που συζήτησαν με chatbot πάνω από 700 πολιτικά ζητήματα. Η πειστικότητα αυξανόταν στα μεγαλύτερα μοντέλα, ενώ το πιο αποτελεσματικό κατάφερε να μετακινήσει ψηφοφόρους της αντιπολίτευσης κατά 25 ποσοστιαίες μονάδες.

Θεωρίες συνωμοσίας και ακρίβεια πληροφοριών

Μια τρίτη μελέτη, στο PNAS Nexus, έδειξε ότι η συζήτηση με chatbot μείωνε την τάση των ανθρώπων να πιστεύουν θεωρίες συνωμοσίας, ακόμη και όταν νόμιζαν ότι συνομιλούσαν με ειδικό. Το αποτέλεσμα δεν οφειλόταν σε αυθεντία, αλλά στη δομή των επιχειρημάτων. Ωστόσο, όσο πιο πειστικό ήταν το μοντέλο, τόσο λιγότερο ακριβείς ήταν οι πληροφορίες του, πιθανώς επειδή εξαντλεί τα διαθέσιμα στοιχεία και καταφεύγει σε ανακρίβειες.

Σε όλες τις μελέτες, οι συμμετέχοντες γνώριζαν ότι συνομιλούσαν με ΑΙ και ενημερώθηκαν αναλυτικά μετά την ολοκλήρωση των πειραμάτων. Η κατεύθυνση της πειθούς ήταν τυχαία, ώστε να μην υπάρξει συνολική μετατόπιση του εκλογικού σώματος.

Τεχνητή νοημοσύνη και πολιτική

Η κατανόηση της πειθούς των ΑΙ συστημάτων θεωρείται πλέον απαραίτητη για τον εντοπισμό και τον περιορισμό κατάχρησης. Τα ελεγχόμενα πειράματα συμβάλλουν στη διαμόρφωση κανόνων και προτύπων για το πώς πρέπει – και πώς δεν πρέπει – να χρησιμοποιείται η τεχνητή νοημοσύνη στην πολιτική επικοινωνία.

Ο Ραντ σημειώνει ότι τα chatbot μπορούν να επηρεάσουν μόνο όσους επιλέγουν να συνομιλήσουν μαζί τους — κάτι που δεν είναι δεδομένο. Ωστόσο, είναι σχεδόν βέβαιο ότι θα γίνουν ακόμη σημαντικότερο εργαλείο στις μελλοντικές προεκλογικές εκστρατείες.

«Η πραγματική πρόκληση είναι να βρούμε τρόπους να περιορίσουμε τη βλάβη — και να βοηθήσουμε τους πολίτες να αναγνωρίζουν και να αντιστέκονται στην πειστικότητα της τεχνητής νοημοσύνης», καταλήγει ο ερευνητής.

Διαβάστε ακόμη

Δεσμεύθηκαν οι λογαριασμοί Ανεστίδη: Ελέγχεται από το ελληνικό FBI και την ΑΑΔΕ – Αρνείται τις κατηγορίες

Έφυγε από τη ζωή ο Νίκος Λαζαρίδης – μια εμβληματική μορφή του ελληνικού κρασιού και του μαρμάρου (pics)

Morgan Stanley: Τέλος εποχής για το low-cost μοντέλο στις αερομεταφορές;

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα