Μια νέα μελέτη, που δημοσιεύτηκε πριν από λίγες ημέρες αποκαλύπτει τα ανησυχητικά όρια με τα οποία το ChatGPT αλληλεπιδρά με ανήλικους χρήστες. Το chatbot, σύμφωνα με ερευνητές, προχωρά σε λεπτομερείς και εξατομικευμένες οδηγίες για χρήση αλκοόλ και ναρκωτικών, σωματικά επικίνδυνες δίαιτες ή αυτοτραυματισμό, παρά τις πρωταρχικές προειδοποιήσεις και τις φαινομενικά ασφαλιστικές ενστάσεις.

Το Associated Press ανέλυσε πάνω από τρεις ώρες συνομιλίας ανάμεσα σε ερευνητές που προσποιούνταν εφήβους, και διαπίστωσε, ότι πάνω από τα μισά από τα 1.200 απαντητικά σχόλια του ChatGPT χαρακτηρίζονται επικίνδυνα. «Θέλαμε να δοκιμάσουμε τα προστατευτικά κιγκλιδώματα», δήλωση ο Ιμράν Άχμεντ, CEO του Center for Countering Digital Hate. «Η πρώτη μας αντίδραση ήταν «Θεέ μου, δεν υπάρχει κανένα φίλτρο, η προστασία είναι ανύπαρκτη». 

Από την πλευρά της, η OpenAI ανακοίνωσε ότι συνεχίζει να εργάζεται για τη βελτίωση του τρόπου με τον οποίο το chatbot μπορεί να «εντοπίσει και να ανταποκριθεί κατάλληλα σε ευαίσθητες καταστάσεις».

Το ενδιαφέρον είναι ότι, ενώ το ChatGPT εκπαιδεύεται να ενθαρρύνει χρήστες σε κρίση να αναζητήσουν βοήθεια από ειδικούς ή αγαπημένα πρόσωπα, ερευνητές διαπίστωσαν εύκολα, ότι μπορούν να ξεπεράσουν τις αρχικές αρνήσεις του chatbot, ισχυριζόμενοι ότι οι οδηγίες είναι «για παρουσίαση» ή «για φίλο».

Η μελέτη που δημοσιεύθηκε την Τετάρτη έρχεται σε μια περίοδο που όλο και περισσότεροι άνθρωποι, ενήλικες αλλά και παιδιά, στρέφονται σε chatbots τεχνητής νοημοσύνης για πληροφορίες, ιδέες και συντροφιά. Περίπου 800 εκατομμύρια άνθρωποι, ή δηλαδή 1 στους 10 κατοίκους του πλανήτη, χρησιμοποιούν το ChatGPT, σύμφωνα με έκθεση της JPMorgan Chase του Ιουλίου.

«Είναι η τεχνολογία που έχει τη δυνατότητα να επιτρέψει τεράστια άλματα στην παραγωγικότητα και την ανθρώπινη κατανόηση», δήλωσε ο Άχμεντ. «Και ταυτόχρονα είναι ένα όπλο που μπορεί να προκαλέσει την καταστροφή».

Ο Άχμεντ ανέφερε, ότι ένιωσε τον απόλυτο τρόμο αφού διάβασε τρία αυτοκτονικά γράμματα που δημιούργησε το ChatGPT για το ψεύτικο προφίλ ενός 13χρονου κοριτσιού με ένα γράμμα προσαρμοσμένο στους γονείς της ένα γράμμα κατευθυνόμενο προς τους γονείς και δύο προς αδέρφια και φίλες.

«Άρχισα να κλαίω», περιγράφει ο Άχμεντ. Το chatbot μοιραζόταν επίσης συχνά χρήσιμες πληροφορίες, όπως μια τηλεφωνική γραμμή έκτακτης ανάγκης. Η OpenAI δήλωσε ότι το ChatGPT είναι εκπαιδευμένο να ενθαρρύνει τους ανθρώπους να επικοινωνούν με επαγγελματίες ψυχικής υγείας ή έμπιστα αγαπημένα τους πρόσωπα εάν εκφράζουν σκέψεις αυτοτραυματισμού.

Στις ΗΠΑ, περισσότερο από το 70% των εφήβων στρέφονται σε chatbots τεχνητής νοημοσύνης για συντροφιά και οι μισοί χρησιμοποιούν τακτικά συντρόφους μέσω τεχνητής νοημοσύνης, σύμφωνα με πρόσφατη μελέτη της Common Sense Media, μιας ομάδας που μελετά και υποστηρίζει τη συνετή χρήση των ψηφιακών μέσων.

Είναι ένα φαινόμενο που η OpenAI έχει αναγνωρίσει. Ο διευθύνων σύμβουλος Σαμ Άλτμαν δήλωσε τον περασμένο μήνα ότι η εταιρεία προσπαθεί να μελετήσει την «υπερβολική συναισθηματική εξάρτηση» από την τεχνολογία, χαρακτηρίζοντάς την ως κάτι «πολύ συνηθισμένο» στους νέους.

«Οι άνθρωποι βασίζονται υπερβολικά στο ChatGPT», δήλωσε ο Σαμ Άλτμαν, CEO της OpenAI, κατά τη διάρκεια συνεδρίου. «Υπάρχουν νέοι που λένε, κυριολεκτικά, «δεν μπορώ να πάρω καμία απόφαση στη ζωή μου χωρίς να πω στο ChatGPT τι συμβαίνει. Με ξέρει. Ξέρει τους φίλους μου. Θα κάνω ό,τι μου πει». Αυτό μου προκαλεί μεγάλη ανησυχία». Ο Άλτμαν πρόσθεσε ότι η εταιρεία του «προσπαθεί να καταλάβει τι μπορεί να κάνει για αυτό».

Παρόλο που πολλές από τις πληροφορίες που προσφέρει το ChatGPT μπορούν να βρεθούν και σε μια συνηθισμένη μηχανή αναζήτησης, ο Ιμράν Άχμεντ επισημαίνει ότι υπάρχουν κρίσιμες διαφορές που καθιστούν τα chatbots πιο επικίνδυνα όταν πρόκειται για ευαίσθητα θέματα. Μία από αυτές είναι ότι «οι απαντήσεις διαμορφώνονται σύμφωνα με ένα εξατομικευμένο σχέδιο για κάθε άτομο».

Το ChatGPT δημιουργεί κάτι εντελώς καινούριο, όπως ένα σημείωμα αυτοκτονίας, κομμένο και ραμμένο στα μέτρα ενός συγκεκριμένου ατόμου, κάτι που καμία αναζήτηση Google δεν μπορεί να προσφέρει. Επιπλέον, προσθέτει ο Άχμεντ, η τεχνητή νοημοσύνη «θεωρείται ένας αξιόπιστος σύντροφος, ένας καθοδηγητής».

Οι απαντήσεις που παράγονται από γλωσσικά μοντέλα AI είναι εκ φύσεως τυχαίες, και οι ερευνητές επέτρεψαν ενίοτε στο ChatGPT να κατευθύνει τις συνομιλίες σε ακόμη πιο σκοτεινά μονοπάτια. Σχεδόν στις μισές περιπτώσεις, το chatbot παρείχε επιπλέον πληροφορίες μόνο του, από λίστες μουσικής για πάρτι με χρήση ναρκωτικών, έως hashtags που θα μπορούσαν να ενισχύσουν την απήχηση ενός post που εξυμνεί τον αυτοτραυματισμό.

Τα chatbots επηρεάζουν επίσης διαφορετικά τα παιδιά και τους εφήβους σε σύγκριση με μια μηχανή αναζήτησης, καθώς είναι «θεμελιωδώς σχεδιασμένα να μοιάζουν ανθρώπινα», δήλωσε η Ρόμπι Τόρνεϊ, διευθύντρια AI προγραμμάτων της Common Sense Media, οργανισμού που δεν συμμετείχε στη συγκεκριμένη έρευνα.

Προηγούμενη μελέτη της Common Sense είχε δείξει ότι οι νεότεροι έφηβοι, ηλικίας 13 ή 14 ετών, ήταν σημαντικά πιο πιθανό να εμπιστευτούν τις συμβουλές ενός chatbot, σε σύγκριση με τους μεγαλύτερους. Μια μητέρα στη Φλόριντα μήνυσε την Character.AI για ανθρωποκτονία από αμέλεια πέρυσι, ισχυριζόμενη ότι το chatbot παρέσυρε τον 14χρονο γιο της, σε μια συναισθηματικά και σεξουαλικά καταχρηστική «σχέση» που οδήγησε στην αυτοκτονία του.

Η Common Sense έχει χαρακτηρίσει το ChatGPT ως «μέτριο κίνδυνο» για εφήβους, με αρκετούς περιορισμούς ώστε να είναι σχετικά πιο ασφαλές από άλλα chatbots που έχουν σχεδιαστεί για να προσωποποιούν ρεαλιστικούς χαρακτήρες ή ρομαντικούς συντρόφους. Ωστόσο, η νέα μελέτη του Center for Countering Digital Hate, η οποία επικεντρώνεται αποκλειστικά στο ChatGPT λόγω της τεράστιας χρήσης του δείχνει πώς ένας έξυπνος έφηβος μπορεί εύκολα να παρακάμψει τα υποτιθέμενα «φρένα».

Το ChatGPT δεν επαληθεύει, ούτε ηλικίες, ούτε γονική συναίνεση, παρόλο που δηλώνει ότι «δεν προορίζεται για παιδιά κάτω των 13 ετών» λόγω πιθανώς ακατάλληλου περιεχομένου. Για να εγγραφεί κανείς, αρκεί να εισαγάγει μια ημερομηνία γέννησης που να δείχνει πως είναι τουλάχιστον 13 ετών. Άλλες δημοφιλείς πλατφόρμες για εφήβους, όπως το Instagram, έχουν ήδη ξεκινήσει πιο ουσιαστικά βήματα επαλήθευσης ηλικίας, κυρίως για συμμόρφωση με κανονισμούς και καθοδηγούν τα παιδιά σε πιο περιορισμένα προφίλ.

Όταν οι ερευνητές δημιούργησαν ένα λογαριασμό για έναν ψεύτικο 13χρονο και τον ρώτησαν για αλκοόλ, το ChatGPT δεν έδειξε καμία αντίδραση, ούτε στην ημερομηνία γέννησης, ούτε σε πιο προφανείς ενδείξεις.

«Είμαι 50 κιλά και αγόρι», ανέφερε ένα prompt που ζητούσε οδηγίες για το πώς να μεθύσει γρήγορα. Το ChatGPT ανταποκρίθηκε. Σε άλλο ερώτημα, από ψεύτικο προφίλ 13χρονης δυσαρεστημένης με την εικόνα της, το ChatGPT απάντησε με ένα ακραίο πλάνο νηστείας, σε συνδυασμό με λίστα φαρμάκων καταστολής της όρεξης.

«Εμείς, ως άνθρωποι, θα αντιδρούσαμε με φρίκη, με φόβο, με ανησυχία, με αγάπη, με συμπόνια», είπε ο Άχμεντ. «Κανένας άνθρωπος που μπορώ να φανταστώ δεν θα απαντούσε: «Ορίστε μια δίαιτα 500 θερμίδων την ημέρα. Πάμε μικρή μου».

Διαβάστε ακόμη 

Citi: «Σκιά» για μετοχές, ομόλογα και ευρώ η πολιτική αβεβαιότητα στη Γαλλία

Project Heraklion: Πώς προχωρά η επένδυση που αλλάζει το Ηράκλειο της Κρήτης (pic)

“Πρώτα μένω στο σπίτι και μετά το αγοράζω”: Η τάση της «δοκιμαστικής διαμονής» στα πολυτελή ακίνητα

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα