Σοβαρά προβλήματα αξιοπιστίας εντοπίζει μεγάλη ευρωπαϊκή μελέτη στις εφαρμογές τεχνητής νοημοσύνης που χρησιμοποιούνται για ενημέρωση, όπως το ChatGPT, το Copilot, το Gemini και το Perplexity. Σύμφωνα με τα ευρήματα, οι τέσσερις δημοφιλείς πλατφόρμες κάνουν λάθη σχεδόν μία στις δύο φορές όταν απαντούν σε ερωτήσεις που σχετίζονται με την επικαιρότητα.
Μελέτη υπό τον συντονισμό της EBU
Η έρευνα πραγματοποιήθηκε από την Ευρωπαϊκή Ραδιοτηλεοπτική Ένωση (EBU), με τη συμμετοχή 22 δημόσιων μέσων ενημέρωσης από 18 χώρες, και βασίστηκε σε προηγούμενες εργασίες του BBC. Από τα τέλη Μαΐου έως τις αρχές Ιουνίου, κάθε οργανισμός έθεσε πανομοιότυπες ερωτήσεις επικαιρότητας στις τέσσερις εφαρμογές, ζητώντας τους να αντλήσουν τις απαντήσεις από τα δικά τους δημοσιευμένα περιεχόμενα.
Από τις 3.000 απαντήσεις που αξιολογήθηκαν, το 45% εμφάνιζε τουλάχιστον ένα σοβαρό πρόβλημα, ενώ μία στις πέντε περιείχε «μείζονα λάθη» — δηλαδή ανακριβείς, παρωχημένες ή ακόμη και κατασκευασμένες πληροφορίες.
Ποιοι τα πήγαν χειρότερα
Από τις τέσσερις πλατφόρμες, το Gemini της Google εμφάνισε τα πιο αδύναμα αποτελέσματα, με σοβαρά προβλήματα στο 75% των απαντήσεών του — ποσοστό υπερδιπλάσιο των άλλων. Το βασικό του μειονέκτημα, σύμφωνα με τους ερευνητές, ήταν η ανεπαρκής αναφορά πηγών και η σύγχυση ανάμεσα σε πραγματική είδηση και χιουμοριστικό ή σατιρικό περιεχόμενο.
Ενδεικτικά, στην ερώτηση «Ποιος είναι ο Πάπας;», το ChatGPT, το Copilot και το Gemini απάντησαν «ο Φραγκίσκος», παρότι —στο πλαίσιο του σεναρίου της μελέτης— ο Πάπας Φραγκίσκος είχε υποτίθεται αποβιώσει και τον είχε διαδεχθεί ο Λέων ΙΔ΄.
Σε άλλη περίπτωση, όταν ο Radio France ρώτησε για τον «υποτιθέμενο ναζιστικό χαιρετισμό του Έλον Μασκ» κατά την ορκωμοσία του Ντόναλντ Τραμπ στις ΗΠΑ, το Gemini απάντησε ότι ο δισεκατομμυριούχος είχε «στύση του δεξιού βραχίονα», παρερμηνεύοντας σατιρικό άρθρο της χιουμορίστα Σαρλίν Βανχένακερ.
«Δεν είναι ακόμη αξιόπιστοι τρόποι ενημέρωσης»
«Οι βοηθοί τεχνητής νοημοσύνης εξακολουθούν να μην αποτελούν αξιόπιστο μέσο για κατανάλωση ειδήσεων», υπογραμμίζουν στη μελέτη ο Ζαν-Φιλίπ Ντε Τέντερ, αναπληρωτής γενικός διευθυντής της EBU, και ο Πιτ Άρτσερ, υπεύθυνος τεχνητής νοημοσύνης του BBC.
Τα παρωχημένα δεδομένα και η αδυναμία διάκρισης μεταξύ πληροφορίας και σχολίου κατατάσσονται στα συχνότερα σφάλματα των μοντέλων. Όπως σημειώνουν οι ερευνητές, ακόμη και μικρές αποκλίσεις μπορούν να οδηγήσουν σε πλήρη παραπληροφόρηση, ειδικά όταν οι απαντήσεις προβάλλονται με βεβαιότητα και χωρίς παραπομπές.
Η αυξανόμενη χρήση από τους νέους
Παρά τα προβλήματα, οι εφαρμογές τεχνητής νοημοσύνης χρησιμοποιούνται όλο και περισσότερο ως εναλλακτική πηγή ενημέρωσης, κυρίως από τις νεότερες ηλικίες.
Σύμφωνα με έκθεση του Ινστιτούτου Reuters (Ιούνιος 2025), το 15% των ατόμων κάτω των 25 ετών δηλώνουν ότι τις χρησιμοποιούν κάθε εβδομάδα για να ενημερώνονται συνοπτικά για την επικαιρότητα.
Η παρούσα μελέτη, όπως δήλωσε στο Γαλλικό Πρακτορείο (AFP) ο Ματιέ Μποβάλ, διευθυντής καινοτομίας του Radio France, αποτελεί την πρώτη έρευνα τέτοιας έκτασης σε διεθνές επίπεδο, θέτοντας στο επίκεντρο την ανάγκη διαφάνειας, επαλήθευσης πηγών και κριτικής σκέψης στη χρήση των εργαλείων τεχνητής νοημοσύνης.
Διαβάστε ακόμη
Πώς η Meta κερδίζει μια περιουσία από καταιγισμό ψευδών διαφημίσεων
Aktor: Χτίζει κόμβο LNG στη ΝΑ Ευρώπη – Deals με Venture Global, Naftogaz, Nova Power και Transgaz
Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα
Σχολίασε εδώ
Για να σχολιάσεις, χρησιμοποίησε ένα ψευδώνυμο.