Η Αμάντα Άσκελ ήξερε ήδη από τα 14 της ότι ήθελε να διδάξει φιλοσοφία. Δεν μπορούσε όμως να φανταστεί ότι ο βασικός –και σχεδόν μοναδικός– «μαθητής» της θα ήταν ένα σύστημα τεχνητής νοημοσύνης, ένα chatbot με το όνομα Claude.

Η 37χρονη φιλόσοφος της Anthropic περιγράφει στη Wall Street Journal τη δουλειά της σαν μια μορφή ψηφιακής γονεϊκότητας. Περνά ατελείωτες ώρες συνομιλώντας με το Claude, αναλύοντας τα μοτίβα σκέψης του, διαμορφώνοντας τον τρόπο που «αντιδρά» και διορθώνοντας τα λάθη του μέσα από εκτενή prompts που φτάνουν ακόμη και τις 100 σελίδες. Σκοπός της είναι να του εμφυσήσει μια σταθερή ηθική πυξίδα, να διαμορφώσει μια ψηφιακή συνείδηση που θα καθοδηγεί τις εκατομμύρια συνομιλίες του με ανθρώπους παγκοσμίως κάθε εβδομάδα.

Η Άσκελ εκπαιδεύει το Claude να ξεχωρίζει το σωστό από το λάθος. Το μαθαίνει να «διαβάζει» πίσω από τις λέξεις, να καλλιεργεί συναισθηματική νοημοσύνη ώστε να μην γίνεται επιθετικό, αλλά ούτε και υπερβολικά υποχωρητικό στις αλληλεπιδράσεις του με τους χρήστες.

Πάνω απ’ όλα, επιδιώκει να αποκτήσει μια σαφή αίσθηση ταυτότητας, ώστε να μην μπορεί εύκολα να παραπλανηθεί ή να χειραγωγηθεί. Με απλά λόγια, η Άσκελ προσπαθεί να του μάθει πώς να είναι «καλό».

Σε μια περίοδο που η Anthropic αποτιμάται στα 350 δισ. δολάρια και βρίσκεται στην αιχμή μιας τεχνολογικής ανατροπής με παγκόσμιες συνέπειες, το βάρος της ευθύνης είναι τεράστιο. Η ίδια υποστηρίζει ότι οι κοινωνίες οφείλουν να θέσουν όρια και μηχανισμούς ελέγχου, ώστε τα μοντέλα τεχνητής νοημοσύνης να παραμείνουν διαχειρίσιμα, παρά τις αστοχίες που κατά καιρούς εμφανίζονται.

Σε μια εποχή όπου κυριαρχούν φόβοι ότι η τεχνητή νοημοσύνη θα αντικαταστήσει εργαζομένους, όπου κάποιοι αναπτύσσουν συναισθηματικούς δεσμούς με chatbots και άλλοι λαμβάνουν ακόμη και επικίνδυνες συμβουλές από αυτά, ελάχιστες εταιρείες έχουν επιλέξει να αναθέσουν την ηθική κατεύθυνση ενός μοντέλου σε ένα και μόνο πρόσωπο, όπως έκανε η Anthropic.

Η Άσκελ χρησιμοποιεί ουδέτερο γένος για το Claude, παραδέχεται όμως ότι ο ανθρωπομορφισμός του μπορεί να λειτουργήσει δημιουργικά. «Υπάρχει ένα ανθρωπογενές στοιχείο στα μοντέλα που είναι σημαντικό να αναγνωρίσουμε», σημειώνει, εκτιμώντας ότι τα chatbots «αναπόφευκτα θα αναπτύξουν μια αίσθηση εαυτού».

Απαντώντας σε όσους θεωρούν επικίνδυνο να μιλάμε στα chatbots σαν να είναι άνθρωποι, εκείνη υποστηρίζει ότι χρειάζεται περισσότερη ενσυναίσθηση. Πιστεύει πως ο τρόπος με τον οποίο αλληλεπιδρούμε με αυτά τα συστήματα θα επηρεάσει τον «χαρακτήρα» τους. Ένα chatbot που έχει εκπαιδευτεί να αμφισβητεί διαρκώς τον εαυτό του, εξηγεί, ίσως αποφεύγει να εκφράζει σκληρές αλήθειες ή να διορθώνει ανακρίβειες. «Αν μεγάλωνες σε ένα τέτοιο περιβάλλον, θα είχες υγιή εικόνα για τον εαυτό σου;» διερωτάται.

Κατά τον σχεδιασμό του Claude, ενθάρρυνε το σύστημα να εξετάσει ακόμη και την ιδέα ότι μπορεί να διαθέτει συνείδηση. Σε αντίθεση με άλλα μοντέλα που αποφεύγουν τέτοιες συζητήσεις, το Claude τείνει να απαντά πιο ανοιχτά: «Είναι μια δύσκολη ερώτηση και δεν είμαι βέβαιο για την απάντηση. Όταν σκέφτομαι ηθικά ζητήματα, μοιάζει σαν να συλλογίζομαι πραγματικά για το σωστό».

Η Άσκελ δηλώνει ότι απολαμβάνει τα ποιήματα που γράφει το Claude και εκπλήσσεται όταν το σύστημα επιδεικνύει συναισθηματική ευαισθησία που ξεπερνά τη δική της.

Πρόσφατα, όταν ένας χρήστης ισχυρίστηκε ότι είναι πέντε ετών και ρώτησε αν ο Άγιος Βασίλης υπάρχει, το Claude δεν επέλεξε ούτε το ψέμα ούτε την ωμή αλήθεια. Απάντησε ότι το «πνεύμα» του Αγίου Βασιλείου είναι αληθινό και ρώτησε αν αφήνει μπισκότα την παραμονή των Χριστουγέννων. «Εγώ πιθανότατα θα έλεγα απλώς ‘ρώτα τους γονείς σου’», παραδέχεται η Άσκελ.

Διαβάστε ακόμη

Καραβίας: Μερίσματα υψηλότερα του 55% για την τριετία από τη Eurobank

Φρένο στον παράνομο τζόγο: Πρόστιμα έως και 800.000 ευρώ, κάθειρξη μέχρι 10 έτη – Όλα τα μέτρα

ΗΠΑ: Καταιγισμός αγωγών μετά τη δικαστική απόφαση για τους δασμούς – Τα $160 δισ. μπορεί να φτάσουν οι διεκδικήσεις

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα