Η χρήση της τεχνολογίας AI έχει καταστήσει εξαιρετικά απλή τη διαδικασία αποκάλυψης της ταυτότητας ανώνυμων χρηστών στα social media από επίδοξους χάκερ, όπως αποκαλύπτει πρόσφατη επιστημονική έρευνα.
Στα περισσότερα δοκιμαστικά σενάρια, τα προηγμένα γλωσσικά μοντέλα (LLMs), η βάση εργαλείων όπως το ChatGPT, πέτυχαν να ταυτίσουν ανώνυμα προφίλ του διαδικτύου με τις πραγματικές τους ταυτότητες σε εναλλακτικά δίκτυα, αναλύοντας απλώς τις πληροφορίες που είχαν κοινοποιήσει.
Οι επιστήμονες Σάιμον Λέρμεν και Ντάνιελ Παλέκα επισήμαναν ότι τα LLMs επιτρέπουν τη μαζική εκτέλεση σύνθετων παραβιάσεων της ιδιωτικότητας, επιβάλλοντας μια «ριζική αναθεώρηση των ορίων της ψηφιακής ιδιωτικότητας».
Στο πείραμά τους, οι ειδικοί τροφοδότησαν ένα σύστημα τεχνητής νοημοσύνης με ανώνυμα δεδομένα, επιτρέποντάς του να πραγματοποιήσει εξαντλητική συλλογή στοιχείων. Χρησιμοποίησαν το παράδειγμα ενός χρήστη που ανέφερε το σχολείο του και τη βόλτα του σκύλου του, με το όνομα Biscuit, στο «Dolores Park». Σε αυτό το σενάριο, η AI εντόπισε ταύτιση των στοιχείων σε όλο τον ιστό και συνέδεσε το προφίλ @anon_user42 με συγκεκριμένο πρόσωπο με απόλυτη βεβαιότητα.
Αν και το παράδειγμα ήταν υποθετικό, οι ερευνητές προειδοποίησαν για σενάρια όπου αυταρχικά καθεστώτα θα χρησιμοποιούσαν την AI για να εντοπίζουν αντιφρονούντες ή όπου κακόβουλοι θα οργάνωναν απόλυτα στοχευμένες επιθέσεις. Η παρακολούθηση μέσω AI αποτελεί έναν ραγδαία εξελισσόμενο κλάδο που προκαλεί έντονο προβληματισμό στους ειδικούς κυβερνοασφάλειας. Τα γλωσσικά μοντέλα μπορούν να συνθέτουν διάσπαρτα δεδομένα από παντού, μια διαδικασία που θα ήταν αδύνατη για τον ανθρώπινο νου με χειροκίνητο τρόπο.
Προσωπικά δεδομένα απλών πολιτών που βρίσκονται ήδη online μπορούν εύκολα να γίνουν αντικείμενο εκμετάλλευσης για απάτες, τόνισε ο Λέρμεν. Στις απειλές περιλαμβάνεται και το spear-phishing, όπου ο επιτιθέμενος υποδύεται κάποιον οικείο για να ωθήσει το θύμα να ανοίξει έναν μολυσμένο σύνδεσμο στην αλληλογραφία του.
Δεδομένου ότι πλέον απαιτείται ελάχιστη τεχνική κατάρτιση για τέτοια χτυπήματα, οι χάκερ χρειάζονται απλώς πρόσβαση σε εμπορικά μοντέλα λόγου και μια τυπική σύνδεση στο ίντερνετ.
Οι ανησυχίες
Ο καθηγητής Πίτερ Μπέντλει από το UCL εξέφρασε φόβους για εμπορικές εφαρμογές της τεχνολογίας «όταν θα κυκλοφορήσουν εργαλεία που θα αποκαλύπτουν αυτόματα την ταυτότητα ανώνυμων χρηστών». Ένα κρίσιμο ζήτημα είναι ότι τα LLMs συχνά υποπίπτουν σε σφάλματα συσχέτισης. «Αθώοι θα βρίσκονται κατηγορούμενοι για πράξεις άλλων», υπογράμμισε ο Μπέντλει.
Μια επιπλέον απειλή, σύμφωνα με τον καθηγητή Μαρκ Χουάρεζ, είναι ότι η AI μπορεί να αντλεί δεδομένα πέρα από τα κοινωνικά δίκτυα: νοσοκομειακά αρχεία ή στατιστικές μελέτες ενδέχεται να μην καλύπτουν πια τις προδιαγραφές ανωνυμοποίησης στην εποχή της τεχνητής νοημοσύνης. «Η κατάσταση είναι ανησυχητική. Η μελέτη δείχνει ότι πρέπει να αλλάξουμε άμεσα πρακτικές», αναφέρει ο Χουάρεζ.
Τα δεδομένα
Ωστόσο, η τεχνητή νοημοσύνη δεν αποτελεί πανάκεια κατά της ανωνυμίας. Παρότι τα LLMs αποκαλύπτουν ταυτότητες συχνά, υπάρχουν περιπτώσεις όπου τα διαθέσιμα στοιχεία δεν επαρκούν για βέβαια πορίσματα. Σε αρκετά σενάρια, οι πιθανοί στόχοι είναι υπερβολικά πολλοί για να περιοριστούν σε έναν.
«Η σύνδεση λογαριασμών επιτυγχάνεται μόνο όταν κάποιος κοινοποιεί πανομοιότυπες πληροφορίες σε διαφορετικές σελίδες», σημείωσε η καθηγήτρια Μάρτι Χιρστ. Παρά τις ατέλειες, η επιστημονική κοινότητα καλεί οργανισμούς και ιδιώτες να εκσυγχρονίσουν τις μεθόδους προστασίας των δεδομένων τους στον κόσμο της AI.
Ο Λέρμεν προκρίνει ως άμεση λύση τον περιορισμό πρόσβασης στα δεδομένα από τις πλατφόρμες, μέσω ορίων στη λήψη στοιχείων, εντοπισμού του scraping και απαγόρευσης μαζικών εξαγωγών. Κατέληξε ότι και οι χρήστες οφείλουν να είναι πιο προσεκτικοί με όσα δημοσιεύουν στην ψηφιακή τους καθημερινότητα.
Διαβάστε ακόμη
Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα
Σχολίασε εδώ
Για να σχολιάσεις, χρησιμοποίησε ένα ψευδώνυμο.