Η ραγδαία εξέλιξη της τεχνητής νοημοσύνης δημιουργεί νέες δυνατότητες αλλά και σοβαρές ανησυχίες για την προστασία της ιδιωτικότητας στο Διαδίκτυο. Σύμφωνα με νέα μελέτη, τα εργαλεία τεχνητής νοημοσύνης καθιστούν πλέον πολύ ευκολότερο για κακόβουλους χάκερ να εντοπίζουν την πραγματική ταυτότητα ανώνυμων λογαριασμών στα κοινωνικά δίκτυα.

Σε σειρά δοκιμών, τα μεγάλα γλωσσικά μοντέλα (LLMs) — η τεχνολογία που βρίσκεται πίσω από εργαλεία όπως το ChatGPT — κατάφεραν σε πολλές περιπτώσεις να συσχετίσουν ανώνυμους χρήστες του Διαδικτύου με τις πραγματικές τους ταυτότητες σε άλλες πλατφόρμες. Το πέτυχαν αξιοποιώντας πληροφορίες που είχαν δημοσιευθεί δημόσια από τους ίδιους τους χρήστες.

Οι ερευνητές τεχνητής νοημοσύνης Σάιμον Λέρμεν και Ντάνιελ Παλέκα επισημαίνουν ότι τα LLMs καθιστούν πλέον οικονομικά εφικτές πολύπλοκες επιθέσεις κατά της ιδιωτικότητας, κάτι που οδηγεί σε μια «θεμελιώδη επανεξέταση του τι μπορεί να θεωρείται πραγματικά ιδιωτικό στο Διαδίκτυο».

Στο πλαίσιο του πειράματος, οι επιστήμονες έδωσαν σε ένα σύστημα τεχνητής νοημοσύνης έναν ανώνυμο λογαριασμό και το άφησαν να συλλέξει όσα περισσότερα στοιχεία μπορούσε. Στο υποθετικό παράδειγμα που χρησιμοποίησαν, ένας χρήστης μιλούσε για τις δυσκολίες του στο σχολείο και για το ότι βγάζει βόλτα τον σκύλο του, τον Biscuit, στο «Dolores Park». Με βάση αυτές τις φαινομενικά ασήμαντες πληροφορίες, η AI αναζήτησε σχετικά στοιχεία σε άλλες πλατφόρμες και κατάφερε να συνδέσει τον λογαριασμό @anon_user42 με μια συγκεκριμένη ταυτότητα με υψηλό βαθμό βεβαιότητας.

Παρότι το παράδειγμα ήταν φανταστικό, οι συγγραφείς της μελέτης υπογραμμίζουν ότι παρόμοιες τεχνικές θα μπορούσαν να χρησιμοποιηθούν στην πραγματικότητα. Κυβερνήσεις ενδέχεται να αξιοποιήσουν τέτοια εργαλεία για την παρακολούθηση αντιφρονούντων ή ακτιβιστών που δημοσιεύουν ανώνυμα, ενώ χάκερ θα μπορούσαν να οργανώσουν εξαιρετικά στοχευμένες και προσωποποιημένες απάτες.

Η παρακολούθηση μέσω τεχνητής νοημοσύνης εξελίσσεται σε έναν ταχέως αναπτυσσόμενο τομέα, προκαλώντας ανησυχία σε επιστήμονες υπολογιστών και ειδικούς στην προστασία προσωπικών δεδομένων. Τα LLMs μπορούν να συγκεντρώνουν και να συνθέτουν πληροφορίες για ένα άτομο από πολλές διαφορετικές πηγές στο Διαδίκτυο — μια διαδικασία που θα ήταν πρακτικά αδύνατη για έναν άνθρωπο να πραγματοποιήσει χειροκίνητα.

Ο Λέρμεν προειδοποιεί ότι οι πληροφορίες που ήδη υπάρχουν στο Διαδίκτυο για απλούς πολίτες μπορούν να χρησιμοποιηθούν εύκολα καταχρηστικά για την οργάνωση απάτης. Ένα χαρακτηριστικό παράδειγμα είναι το λεγόμενο spear-phishing, όπου ένας χάκερ προσποιείται έναν έμπιστο φίλο ή συνεργάτη προκειμένου να πείσει το θύμα να πατήσει έναν κακόβουλο σύνδεσμο σε email ή μήνυμα.

Καθώς πλέον απαιτείται πολύ λιγότερη τεχνική εξειδίκευση για την πραγματοποίηση τέτοιων επιθέσεων, οι επίδοξοι χάκερ χρειάζονται ουσιαστικά μόνο πρόσβαση σε δημόσια διαθέσιμα γλωσσικά μοντέλα και σύνδεση στο Διαδίκτυο.

Οι ανησυχίες

Ο καθηγητής πληροφορικής Πίτερ Μπέντλει από το University College London επισημαίνει ότι υπάρχουν σοβαρές ανησυχίες για πιθανές εμπορικές εφαρμογές αυτής της τεχνολογίας, «αν και όταν εμφανιστούν προϊόντα που θα μπορούν να αποκαλύπτουν την ταυτότητα ανώνυμων χρηστών».

Ένα σημαντικό πρόβλημα είναι ότι τα LLMs δεν είναι πάντα ακριβή και συχνά κάνουν λάθη όταν προσπαθούν να συνδέσουν λογαριασμούς μεταξύ διαφορετικών πλατφορμών. «Οι άνθρωποι μπορεί να κατηγορηθούν για πράγματα που δεν έχουν κάνει», προειδοποιεί ο Μπέντλει.

Παράλληλα, ο καθηγητής κυβερνοασφάλειας Μαρκ Χουάρεζ από το Πανεπιστήμιο του Εδιμβούργου επισημαίνει ότι τα μοντέλα τεχνητής νοημοσύνης μπορούν να αξιοποιούν και άλλα δημόσια δεδομένα πέρα από τα κοινωνικά δίκτυα. Αρχεία νοσοκομείων, δεδομένα εισαγωγών ή άλλες στατιστικές δημοσιεύσεις ενδέχεται να μην πληρούν πλέον τα αυστηρά πρότυπα ανωνυμοποίησης που απαιτούνται στην εποχή της τεχνητής νοημοσύνης.

«Είναι αρκετά ανησυχητικό. Νομίζω ότι αυτή η μελέτη δείχνει πως πρέπει να επανεξετάσουμε τις πρακτικές μας», σημειώνει ο Χουάρεζ.

Τα δεδομένα

Παρά τις δυνατότητές της, η τεχνητή νοημοσύνη δεν αποτελεί ένα «μαγικό εργαλείο», που μπορεί να καταργήσει πλήρως την ανωνυμία στο Διαδίκτυο. Αν και τα LLMs μπορούν σε αρκετές περιπτώσεις να αποκαλύψουν ταυτότητες, υπάρχουν περιπτώσεις όπου τα διαθέσιμα δεδομένα δεν επαρκούν για ασφαλή συμπεράσματα.

Σε πολλές περιπτώσεις, ο αριθμός των πιθανών ταυτοποιήσεων παραμένει πολύ μεγάλος ώστε να καταλήξει κανείς σε σαφές αποτέλεσμα.

«Τα συστήματα μπορούν να συνδέσουν λογαριασμούς μόνο όταν κάποιος μοιράζεται επαναλαμβανόμενα τις ίδιες πληροφορίες σε διαφορετικές πλατφόρμες», εξηγεί η καθηγήτρια Μάρτι Χιρστ από το Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϊ.

Παρότι η τεχνολογία δεν είναι αλάνθαστη, οι επιστήμονες θεωρούν πλέον αναγκαίο οργανισμοί και ιδιώτες να επανεξετάσουν τον τρόπο με τον οποίο ανωνυμοποιούν δεδομένα στην εποχή της τεχνητής νοημοσύνης.

Ο Λέρμεν προτείνει ως πρώτο βήμα οι πλατφόρμες να περιορίσουν την πρόσβαση στα δεδομένα, εφαρμόζοντας όρια στη λήψη πληροφοριών χρηστών, στον εντοπισμό αυτοματοποιημένης συλλογής δεδομένων (scraping) και στον περιορισμό μαζικών εξαγωγών δεδομένων. Παράλληλα τονίζει ότι και οι ίδιοι οι χρήστες μπορούν να γίνουν πιο προσεκτικοί σχετικά με τις πληροφορίες που επιλέγουν να δημοσιεύουν στο Διαδίκτυο.

Διαβάστε ακόμη

Αριστοτέλης Ωνάσης: Οι 15 ατάκες της ζωής του

Κρίση στη Μέση Ανατολή: Πληθωρισμός, ενέργεια και το δίλημμα της ΕΚΤ για τα επιτόκια

Escape Rooms: Γιατί η Ελλάδα θεωρείται κορυφαία στον κόσμο

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα