Κάποτε θεωρούσαμε δεδομένο ότι μπορούμε να εμπιστευτούμε όσα βλέπουμε και ακούμε. Πλέον, αυτή η βεβαιότητα έχει χαθεί. Σήμερα, η γενετική τεχνητή νοημοσύνη (GenAI) έχει φτάσει σε τέτοιο επίπεδο στη δημιουργία deepfake ήχου και βίντεο, ώστε η παραγωγή ενός ψεύτικου αποσπάσματος να είναι σχεδόν τόσο απλή όσο το πάτημα ενός κουμπιού. Και αυτή η εξέλιξη μόνο καθησυχαστική δεν είναι.

«Κανείς δεν βρίσκεται εκτός στόχου», επισημαίνει ο Φιλ Μουνκάστερ από την εταιρεία ψηφιακής ασφάλειας ESET. Τα deepfakes επιτρέπουν στους απατεώνες να υποδύονται άλλα πρόσωπα, για παράδειγμα για να ανοίγουν τραπεζικούς λογαριασμούς ή να εμφανίζονται ως υποψήφιοι εργαζόμενοι. «Η μεγαλύτερη απειλή, ωστόσο, αφορά την οικονομική απάτη, ειδικά τις τραπεζικές επιθέσεις και την κατάληψη λογαριασμών υψηλόβαθμων στελεχών», τονίζει.

Παρά τα δεδομένα, πολλοί οργανισμοί εξακολουθούν να υποτιμούν τον κίνδυνο. Η βρετανική κυβέρνηση εκτιμά ότι πέρυσι διακινήθηκαν έως και οκτώ εκατομμύρια συνθετικά βίντεο, έναντι μόλις 500.000 το 2023, ενώ ο πραγματικός αριθμός πιθανότατα είναι ακόμη μεγαλύτερος.

Πώς εκτελούνται οι επιθέσεις

Σύμφωνα με πείραμα του Τζακ Μουρ, συμβούλου ασφάλειας της ESET, η πραγματοποίηση μιας επίθεσης deepfake audio κατά μιας επιχείρησης δεν ήταν ποτέ πιο εύκολη. Αρκεί ένα σύντομο δείγμα βίντεο του στόχου και η τεχνητή νοημοσύνη αναλαμβάνει τα υπόλοιπα.

Ο απατεώνας επιλέγει ποιον θα μιμηθεί, όπως τον CEO, τον οικονομικό διευθυντή ή έναν συνεργάτη. Αναζητά στο Διαδίκτυο δείγματα φωνής, κάτι ιδιαίτερα εύκολο για στελέχη με δημόσια παρουσία. Το υλικό μπορεί να προέρχεται από κοινωνικά δίκτυα, τηλεδιασκέψεις, συνεντεύξεις ή άλλες πηγές. Λίγα δευτερόλεπτα αρκούν. Στη συνέχεια επιλέγει στόχο, συνήθως κάποιον από τα τμήματα IT ή οικονομικών, εντοπίζοντάς τον μέσω LinkedIn, και επικοινωνεί μαζί του με email ή τηλεφώνημα. Μπορεί να παρουσιαστεί ως διευθύνων σύμβουλος που ζητά άμεση μεταφορά χρημάτων, να ζητήσει επαναφορά κωδικών ή να υποδυθεί προμηθευτή που απαιτεί πληρωμή.

Ο δράστης χρησιμοποιεί συνθετικό ήχο για να μιμηθεί τη φωνή του στελέχους ή του συνεργάτη. Ανάλογα με το εργαλείο, είτε ακολουθεί προκαθορισμένο σενάριο είτε αξιοποιεί τεχνολογία speech-to-speech, μετατρέποντας τη φωνή του σχεδόν σε πραγματικό χρόνο.

Μην εμπιστεύεστε όσα ακούτε

Οι επιθέσεις αυτές γίνονται ολοένα φθηνότερες, πιο απλές και πιο πειστικές. Ορισμένα εργαλεία προσθέτουν θόρυβο, παύσεις και τραυλισμούς, ώστε η φωνή να ακούγεται φυσική. Παράλληλα, βελτιώνουν συνεχώς την απόδοση ρυθμού, έντασης και λεκτικών ιδιαιτεροτήτων κάθε ομιλητή. Σε τηλεφωνικές επικοινωνίες, μάλιστα, οι ατέλειες της τεχνητής νοημοσύνης είναι ακόμη πιο δύσκολο να εντοπιστούν.

Οι επιτιθέμενοι χρησιμοποιούν συχνά τεχνικές κοινωνικής μηχανικής, ασκώντας πίεση για άμεση ανταπόκριση ή ζητώντας απόλυτη εχεμύθεια. Όταν, δε, παρουσιάζονται ως ανώτερα στελέχη, γίνεται σαφές γιατί τα θύματα πείθονται. Ποιος θα αμφισβητούσε τον διευθύνοντα σύμβουλο;

Η άμυνα

Υπάρχουν, ωστόσο, τρόποι αναγνώρισης μιας τέτοιας απάτης. Ανάλογα με την ποιότητα της GenAI, μπορεί να εντοπιστούν:

Ένας αφύσικος ρυθμός ομιλίας
Μια επίπεδη συναισθηματική έκφραση
Αφύσικη αναπνοή ή απουσία παύσεων
Ένας ρομποτικός τόνος
Ανώμαλος ή υπερβολικά ομοιόμορφος θόρυβος

Η αντεπίθεση

Ο λόγος που οι δράστες στρέφονται σε αυτές τις πρακτικές είναι τα υψηλά οικονομικά οφέλη. Χαρακτηριστικό είναι το περιστατικό του 2020, όταν υπάλληλος στα Ηνωμένα Αραβικά Εμιράτα εξαπατήθηκε και μετέφερε 35 εκατομμύρια δολάρια, πιστεύοντας ότι μιλούσε με τον προϊστάμενό του.

Με τη ραγδαία εξέλιξη της τεχνολογίας, είναι κρίσιμο να επανεξεταστούν τα μέτρα προστασίας. Πρώτο βήμα αποτελεί η εκπαίδευση των εργαζομένων, με προγράμματα που περιλαμβάνουν προσομοιώσεις deepfake και ενισχύουν την επίγνωση των κινδύνων.

Παράλληλα, απαιτείται εκπαίδευση στον εντοπισμό τεχνικών κοινωνικής μηχανικής και συστηματική αξιολόγηση μέσω ασκήσεων κυβερνοασφάλειας.

Σε επίπεδο διαδικασιών:

Επιβεβαίωση αιτημάτων μέσω ανεξάρτητων καναλιών επικοινωνίας
Διπλή έγκριση για μεγάλες συναλλαγές
Χρήση προκαθορισμένων φράσεων ή ερωτήσεων ταυτοποίησης

Η τεχνολογία μπορεί επίσης να συμβάλει, μέσω εργαλείων ανίχνευσης συνθετικής φωνής ή περιορισμού της δημόσιας έκθεσης ηχητικών δεδομένων στελεχών.

Άνθρωποι, διαδικασίες και τεχνολογία

Το συμπέρασμα είναι σαφές: τα deepfakes δημιουργούνται εύκολα και με ελάχιστο κόστος. Δεδομένων των υψηλών κερδών, οι σχετικές απάτες δεν πρόκειται να εκλείψουν σύντομα.

Η πιο αποτελεσματική προσέγγιση είναι ένας συνδυασμός ανθρώπινου παράγοντα, διαδικασιών και τεχνολογίας. Τα μέτρα πρέπει να αναθεωρούνται συνεχώς, καθώς η τεχνητή νοημοσύνη εξελίσσεται ταχύτατα. Το νέο τοπίο απαιτεί διαρκή επαγρύπνηση.

Διαβάστε επίσης

Eνα ολόκληρο ΑΕΠ έχουν δανειστεί ιδιώτες και επιχειρήσεις

Αντετοκούνμπο – Μπέκαμ: Το deal-έκπληξη που φιλοδοξεί να κυριαρχήσει στο health market

BlackRock: Στο στόχαστρο τα γερμανικά ομόλογα καθώς ενισχύεται ο πληθωριστικός κίνδυνος (διάγραμμα)

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα