Η τεχνητή νοημοσύνη φαίνεται να πλησιάζει επικίνδυνα την ανθρώπινη δημιουργικότητα. Σύμφωνα με νέα έρευνα της εταιρείας SEO Graphite, που δημοσιεύθηκε αποκλειστικά από το Axios, τα άρθρα παραγόμενα από ΑΙ ξεπέρασαν για πρώτη φορά —έστω και προσωρινά— εκείνα που γράφονται από ανθρώπους, προτού οι δύο πλευρές επανέλθουν σε σχετική ισορροπία.

Η έρευνα δείχνει ότι μετά την κυκλοφορία του ChatGPT το 2023, η παραγωγή AI περιεχομένου εκτοξεύθηκε, με κορύφωση τον Νοέμβριο του 2024, όταν τα αυτόματα άρθρα ξεπέρασαν προσωρινά τα ανθρώπινα. Έκτοτε, το ποσοστό τους κυμαίνεται σε ισότιμα επίπεδα.

Η Graphite ανέλυσε 65.000 ιστοσελίδες δημοσιευμένες από το 2020 έως το 2025, χρησιμοποιώντας το σύστημα ανίχνευσης Surfer για να εντοπίσει την προέλευση των κειμένων μέσα από τη βάση δεδομένων Common Crawl, η οποία περιλαμβάνει πάνω από 300 δισεκατομμύρια URLs. Ένα άρθρο θεωρήθηκε «AI-generated» όταν λιγότερο από το 50% του περιεχομένου του κρίθηκε ανθρώπινο.

Οι ειδικοί εκφράζουν ανησυχίες ότι αν το διαδίκτυο πλημμυρίσει από περιεχόμενο τεχνητής νοημοσύνης, τα ίδια τα γλωσσικά μοντέλα κινδυνεύουν να «ανακυκλώνουν» τα δικά τους δεδομένα, αναπαράγοντας χαμηλής ποιότητας πληροφορία. Το φαινόμενο αυτό, που κάποιοι αποκαλούν «AI self-pollution», θα μπορούσε να οδηγήσει σε κατάρρευση του οικοσυστήματος που τροφοδοτεί την τεχνητή νοημοσύνη.

Η Europol είχε προβλέψει ήδη από το 2022 ότι μέχρι το 2026, έως και το 90% του διαδικτυακού περιεχομένου θα προέρχεται από ΑΙ. Τα νέα δεδομένα, ωστόσο, δείχνουν μια πιο περίπλοκη πραγματικότητα, με την ανθρώπινη γραφή να διατηρεί σημαντικό προβάδισμα σε ποιοτικούς όρους.

Οι μηχανές αναζήτησης προτιμούν τους ανθρώπους

Παρά την εξάπλωση των ΑΙ άρθρων, οι μηχανές αναζήτησης φαίνεται να εξακολουθούν να ανταμείβουν την ανθρώπινη γραφή. Σύμφωνα με δεύτερη μελέτη της Graphite:

  • Το 86% των άρθρων που εμφανίζονται στις πρώτες θέσεις της Google είναι ανθρώπινα.

  • Μόνο το 14% προέρχεται από τεχνητή νοημοσύνη.

  • Στα chatbots όπως το ChatGPT και το Perplexity, το 82% των πηγών είναι ανθρώπινης προέλευσης.

Τα αποτελέσματα υποδηλώνουν ότι οι αλγόριθμοι ανιχνεύουν και προτιμούν τη φυσικότητα, τη συνάφεια και τη γλωσσική πολυπλοκότητα των ανθρώπινων κειμένων.

Η διάκριση μεταξύ ανθρώπινου και μηχανικού λόγου καθίσταται, ωστόσο, όλο και πιο δύσκολη. Το Surfer εμφάνισε ποσοστό σφάλματος μόλις 4,2%, όμως οι ειδικοί παραδέχονται ότι το όριο γίνεται θολό, καθώς οι περισσότεροι δημιουργοί συνεργάζονται πια με εργαλεία ΑΙ.

«Πρόκειται περισσότερο για συμβίωση παρά για ανταγωνισμό», σημειώνει ο Στέφανο Σοάτο, καθηγητής Πληροφορικής στο UCLA και αντιπρόεδρος της Amazon Web Services.

Η Common Crawl, από την οποία αντλούν εκπαίδευση τα περισσότερα μεγάλα μοντέλα, δεν περιλαμβάνει μεγάλο μέρος του διαδικτύου. Ιδιαίτερα τα paywalled μέσα ενημέρωσης, όπου το περιεχόμενο είναι αμιγώς ανθρώπινο, αποκλείουν πλέον την πρόσβαση στη βάση δεδομένων, γεγονός που πιθανώς υποεκτιμά το ποσοστό ανθρώπινης δημιουργίας.

Παρά τη ραγδαία διάδοση της τεχνητής νοημοσύνης, οι χρήστες παραμένουν επιφυλακτικοί. Μόλις 20% θεωρούν τις ΑΙ-περιλήψεις «πολύ χρήσιμες» και μόλις 6% δηλώνουν ότι τις εμπιστεύονται πραγματικά, σύμφωνα με έρευνα του Pew Research Center.

Το συμπέρασμα είναι σαφές: η μάχη μεταξύ ανθρώπων και μηχανών έχει ξεκινήσει, αλλά η ισορροπία παραμένει προς το παρόν ανθρώπινη.

Διαβάστε ακόμη 

Shutdown: Το δεύτερο μακροβιότερο στην ιστορία των ΗΠΑ – Οι επιπτώσεις στην οικονομία

Gold crash: Πού οφείλεται η μεγαλύτερη διόρθωση των τελευταίων 12 ετών – Tι «βλέπουν» για τον χρυσό οι αναλυτές (γραφήματα)

Πώς το ψυγείο σας μπορεί να γίνει Porsche – H νέα συναρπαστική σειρά της Smeg

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα