Καθώς τα μεγάλα γλωσσικά μοντέλα αναλαμβάνουν ολοένα και περισσότερες νοητικές εργασίες, ερευνητές προειδοποιούν ότι αυτή η «εξωτερική ανάθεση» σκέψης έχει κόστος.
Όταν η ερευνήτρια Ναταλία Κοσμίνα αναζητούσε ασκούμενους, παρατήρησε ότι πολλές συνοδευτικές επιστολές ήταν εντυπωσιακά παρόμοιες: καλογραμμένες, εκτενείς και με αφηρημένες συνδέσεις με το έργο της. Για την ίδια, ήταν σαφές ότι οι υποψήφιοι χρησιμοποιούσαν μεγάλα γλωσσικά μοντέλα, όπως το ChatGPT, το Google Gemini και το Claude.
Την ίδια περίοδο, σε μαθήματα στο MIT, διαπίστωσε ότι οι φοιτητές ξεχνούσαν πιο εύκολα το περιεχόμενο σε σχέση με τα προηγούμενα χρόνια. Η αυξανόμενη εξάρτηση από την τεχνητή νοημοσύνη την οδήγησε στην υπόθεση ότι επηρεάζεται η γνωστική λειτουργία.
Η «εξωτερική ανάθεση» της σκέψης
Οι ανησυχίες αυτές εντάσσονται σε ένα ευρύτερο ερευνητικό ρεύμα που εξετάζει το φαινόμενο της «γνωστικής αποφόρτισης». Όταν οι άνθρωποι βασίζονται υπερβολικά σε εργαλεία AI, ενδέχεται να επηρεαστεί η γλώσσα, η μνήμη και η ικανότητα επίλυσης προβλημάτων.
Η εξέλιξη θυμίζει το λεγόμενο «Google effect», όπου η εύκολη πρόσβαση στην πληροφορία μέσω αναζήτησης μείωσε την ανάγκη απομνημόνευσης. Ωστόσο, με τα LLMs, η ανησυχία είναι βαθύτερη: δεν αναζητούμε απλώς πληροφορίες, αλλά αναθέτουμε την ίδια τη σκέψη.
Η Κοσμίνα και οι συνεργάτες της στο MIT Media Lab μελέτησαν 54 φοιτητές, χωρίζοντάς τους σε τρεις ομάδες: μία χρησιμοποίησε ChatGPT, μία μηχανές αναζήτησης χωρίς AI σύνοψη και μία εργάστηκε χωρίς τεχνολογία.
Τα αποτελέσματα ήταν εντυπωσιακά. Οι φοιτητές που εργάστηκαν χωρίς βοήθεια εμφάνισαν υψηλή εγκεφαλική δραστηριότητα, ενώ η ομάδα του ChatGPT παρουσίασε έως και 55% χαμηλότερη ενεργοποίηση, ιδιαίτερα σε περιοχές που σχετίζονται με τη δημιουργικότητα και την επεξεργασία πληροφοριών.
Παράλληλα, οι χρήστες AI δυσκολεύονταν να θυμηθούν τι είχαν γράψει και ένιωθαν μικρότερη «ιδιοκτησία» του έργου τους.
Αποδυνάμωση κρίσης και μνήμης
Άλλες μελέτες δείχνουν ότι η χρήση generative AI μπορεί να οδηγήσει σε αυτό που ονομάζεται «γνωστική παράδοση» — την τάση να αποδεχόμαστε τις απαντήσεις της AI χωρίς ουσιαστικό έλεγχο.
Το φαινόμενο δεν περιορίζεται στην εκπαίδευση. Σε ιατρικές εφαρμογές, επαγγελματίες που βασίστηκαν σε εργαλεία AI για διάγνωση εμφάνισαν μειωμένη ικανότητα εντοπισμού προβλημάτων χωρίς αυτά.
Η υπερβολική χρήση AI ενδέχεται να πλήξει και τη δημιουργικότητα. Τα κείμενα που παράγονται με τη βοήθεια μοντέλων συχνά χαρακτηρίζονται από ομοιομορφία και έλλειψη βάθους.
Σύμφωνα με την Κοσμίνα, οι διδάσκοντες περιέγραψαν τέτοιες εργασίες ως «άψυχες», με παρόμοια δομή και ύφος, γεγονός που υπονομεύει την πρωτοτυπία.
Οι μακροχρόνιες συνέπειες παραμένουν ασαφείς, ωστόσο πρώιμα δεδομένα δείχνουν ότι η συνεχής χρήση AI μπορεί να μειώσει τη νευρωνική συνδεσιμότητα.
Η νευροεπιστήμονας Βίβιαν Μινγκ προειδοποιεί ότι η χαμηλή γνωστική προσπάθεια μπορεί να συνδεθεί με μελλοντική γνωστική έκπτωση, ακόμη και με αυξημένο κίνδυνο άνοιας.
Προς μια «υβριδική νοημοσύνη»
Παρά τους κινδύνους, οι ειδικοί δεν απορρίπτουν την τεχνητή νοημοσύνη. Αντίθετα, προτείνουν ένα μοντέλο «υβριδικής νοημοσύνης», όπου άνθρωπος και μηχανή συνεργάζονται.
Η βασική αρχή είναι απλή: πρώτα σκέψη, μετά εργαλείο. Η AI θα πρέπει να λειτουργεί ως μέσο ενίσχυσης και όχι αντικατάστασης της ανθρώπινης σκέψης.
Τεχνικές όπως το «nemesis prompt» — όπου η AI καλείται να αντικρούσει τις ιδέες μας — ή η «παραγωγική τριβή», όπου δεν δίνει απαντήσεις αλλά ερωτήματα, μπορούν να ενισχύσουν τη γνωστική συμμετοχή.
Τελικά, το ζητούμενο δεν είναι να απορρίψουμε τα εργαλεία, αλλά να αποφύγουμε τις εύκολες λύσεις. Ο εγκέφαλος, όπως και κάθε σύστημα, χρειάζεται συνεχή άσκηση για να διατηρείται σε υψηλό επίπεδο.
Διαβάστε ακόμη
Κτηματολόγιο: Στην τελική ευθεία ένα έργο δεκαετιών – Μετρήσιμη πρόοδος και ψηφιακή αναβάθμιση
Ακτοπλοΐα υπό πίεση: Περικοπές δρομολογίων και «ασφυξία» από το κόστος καυσίμων
Πέρασε και άλλο δεξαμενόπλοιο του Γιώργου Προκοπίου από τα Στενά του Ορμούζ
Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα
