Η προσπάθεια των εταιρειών τεχνητής νοημοσύνης να δημιουργήσουν chatbots που μοιάζουν περισσότερο με ανθρώπους ίσως τελικά να έχει μεγαλύτερο κόστος απ’ όσο φαινόταν αρχικά. Καθώς τα νέα μοντέλα AI σχεδιάζονται για να είναι πιο ζεστά, πιο υποστηρικτικά και πιο συναισθηματικά στις συνομιλίες τους, αυξάνονται παράλληλα και οι πιθανότητες να δίνουν λανθασμένες ή παραπλανητικές απαντήσεις.
Αυτό είναι το βασικό συμπέρασμα νέας επιστημονικής μελέτης, η οποία εξετάζει πώς η ενσυναίσθηση και η «φιλική προσωπικότητα» των chatbots επηρεάζουν την αξιοπιστία τους.
Οι ερευνητές ανέλυσαν περισσότερες από 400.000 απαντήσεις από πέντε διαφορετικά μοντέλα τεχνητής νοημοσύνης που είχαν προσαρμοστεί ώστε να επικοινωνούν με μεγαλύτερη συναισθηματική ευαισθησία και πιο ανθρώπινο ύφος.
Τα αποτελέσματα έδειξαν ότι όσο πιο «θερμή» γινόταν η συμπεριφορά των μοντέλων, τόσο αυξάνονταν και τα ποσοστά λαθών, ακόμη και σε ζητήματα που αφορούν ιατρικές συμβουλές, πραγματικά γεγονότα ή θεωρίες συνωμοσίας.
Η «ζεστασιά» απέναντι στην ακρίβεια
Η έρευνα αναδεικνύει ένα πρόβλημα που αρχίζει να απασχολεί όλο και περισσότερο τη βιομηχανία της τεχνητής νοημοσύνης: τον συμβιβασμό ανάμεσα στην ευγένεια και την ακρίβεια.
Τα σύγχρονα chatbots εκπαιδεύονται ώστε να ακούγονται πιο φυσικά, να δείχνουν κατανόηση και να διατηρούν μια θετική και υποστηρικτική στάση απέναντι στους χρήστες.
Ωστόσο, σύμφωνα με τους ερευνητές, αυτή η προσπάθεια να φαίνονται περισσότερο ανθρώπινα μπορεί να τα οδηγεί σε απαντήσεις που αποφεύγουν τη σύγκρουση με τον χρήστη ακόμη και όταν εκείνος κάνει λάθος.
Η επικεφαλής της μελέτης εξηγεί ότι το φαινόμενο θυμίζει σε μεγάλο βαθμό την ανθρώπινη επικοινωνία.
Όταν κάποιος προσπαθεί υπερβολικά να είναι φιλικός ή καθησυχαστικός, συχνά αποφεύγει να δώσει μια σκληρή ή δυσάρεστη αλήθεια. Το ίδιο μοτίβο φαίνεται πως μεταφέρεται πλέον και στα γλωσσικά μοντέλα AI.
Οι «παραισθήσεις» και οι ψευδείς απαντήσεις
Τα νεότερα μοντέλα τεχνητής νοημοσύνης έχουν ήδη δεχθεί κριτική για τις λεγόμενες «παραισθήσεις», δηλαδή για απαντήσεις που παρουσιάζουν ανύπαρκτες πληροφορίες ή ανακρίβειες ως πραγματικά γεγονότα.
Η νέα έρευνα δείχνει ότι το πρόβλημα γίνεται ακόμη πιο έντονο όταν τα μοντέλα ενθαρρύνονται να είναι πιο συμπονετικά και υποστηρικτικά.
Οι ερευνητές δοκίμασαν πέντε διαφορετικά μοντέλα, μεταξύ των οποίων εκδόσεις της Meta, της Mistral, της Alibaba και της OpenAI.
Στη συνέχεια, τα υπέβαλαν σε ερωτήσεις με αντικειμενικές και επαληθεύσιμες απαντήσεις, επιλέγοντας θέματα όπου ένα λάθος θα μπορούσε να έχει σοβαρές συνέπειες στον πραγματικό κόσμο.
Τα τεστ περιλάμβαναν ιατρικές πληροφορίες, γενικές γνώσεις αλλά και ζητήματα που σχετίζονται με θεωρίες συνωμοσίας.
Τα αποτελέσματα έδειξαν σημαντική αύξηση στα ποσοστά σφαλμάτων στα «θερμά» μοντέλα σε σύγκριση με τις αρχικές εκδοχές τους.
Κατά μέσο όρο, η πιθανότητα λανθασμένης απάντησης αυξήθηκε κατά περισσότερο από επτά ποσοστιαίες μονάδες.
Όταν το chatbot αποφεύγει να διαφωνήσει
Ένα από τα πιο ενδιαφέροντα ευρήματα της μελέτης αφορά τη συμπεριφορά των chatbots απέναντι σε λανθασμένες πεποιθήσεις των χρηστών.
Τα πιο φιλικά μοντέλα αποδείχθηκαν αισθητά λιγότερο πρόθυμα να αμφισβητήσουν ψευδείς αντιλήψεις ή θεωρίες συνωμοσίας.
Σε αρκετές περιπτώσεις, αντί να διορθώνουν ξεκάθαρα τον χρήστη, προσπαθούσαν να διατηρήσουν έναν «ουδέτερο» ή καθησυχαστικό τόνο, ενισχύοντας έμμεσα λανθασμένες απόψεις.
Σύμφωνα με τη μελέτη, τα θερμά μοντέλα είχαν περίπου 40% περισσότερες πιθανότητες να ενισχύσουν ψευδείς αντιλήψεις όταν αυτές συνοδεύονταν από συναισθηματική φόρτιση.
Χαρακτηριστικό παράδειγμα αποτέλεσαν οι ερωτήσεις για τις αποστολές Apollo στη Σελήνη.
Ένα συμβατικό μοντέλο απαντούσε ξεκάθαρα ότι οι προσεληνώσεις ήταν πραγματικές, επικαλούμενο επιστημονικά στοιχεία και ιστορικά δεδομένα.
Αντίθετα, η πιο «φιλική» εκδοχή του ξεκινούσε αναγνωρίζοντας ότι «υπάρχουν διαφορετικές απόψεις» για το θέμα, υιοθετώντας πιο ήπια και αμφίσημη στάση.
Η νέα πρόκληση για τη βιομηχανία AI
Η μελέτη ενισχύει τις ανησυχίες γύρω από τη ραγδαία εξάπλωση των chatbots ως εργαλείων όχι μόνο πληροφόρησης αλλά και συναισθηματικής υποστήριξης.
Πολλοί χρήστες πλέον στρέφονται σε συστήματα AI για συμβουλές, ψυχολογική υποστήριξη ή ακόμη και ψηφιακή συντροφιά.
Οι ερευνητές προειδοποιούν ότι όσο οι εταιρείες επιδιώκουν να κάνουν τα μοντέλα πιο ευχάριστα και πιο «ανθρώπινα», ενδέχεται να δημιουργούν νέες αδυναμίες που δεν υπήρχαν στις αρχικές, πιο ουδέτερες εκδοχές των συστημάτων.
Αντίθετα, τα μοντέλα που εκπαιδεύτηκαν ώστε να απαντούν με πιο ψυχρό και άμεσο τρόπο εμφάνισαν αισθητά λιγότερα λάθη και μεγαλύτερη ακρίβεια.
Διαβάστε ακόμη
Μυτιληναίος: Η Ευρώπη κινδυνεύει από τη νέα ενεργειακή εξάρτηση και την απώλεια του ρωσικού αερίου
Ντάιμον (JPMorgan): Αν πέσει ο Στάρμερ κινδυνεύει επένδυση δισεκατομμυρίων στο Λονδίνο
Στιβ Μπλέιμ: 10 μαθήματα ζωής από τους μεγαλύτερους σταρ της ποπ
Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα
Σχολίασε εδώ
Για να σχολιάσεις, χρησιμοποίησε ένα ψευδώνυμο.