Πολλοί οργανισμοί πιστεύουν ότι έχουν θωρακιστεί απέναντι στους ψηφιακούς κινδύνους. Διαθέτουν ομάδες κυβερνοασφάλειας, διαδικασίες και εργαλεία. Όταν όμως μπαίνει στο παιχνίδι η Τεχνητή Νοημοσύνη, το έδαφος αλλάζει – και συχνά οι άμυνες αποδεικνύονται ανεπαρκείς.

Αυτό επισημαίνει ο ερευνητής ασφάλειας Τεχνητής Νοημοσύνης Σάντερ Σάλχοφ, ο οποίος έχει επικεντρωθεί εδώ και χρόνια στα τρωτά σημεία των μεγάλων γλωσσικών μοντέλων. Όπως ανέφερε σε πρόσφατη εμφάνισή του στο “Lenny’s Podcast”, πολλές εταιρείες δεν διαθέτουν το εξειδικευμένο ανθρώπινο δυναμικό που απαιτείται για να κατανοήσει πώς αποτυγχάνουν στην πράξη τα συστήματα AI – και πώς μπορούν να αξιοποιηθούν κακόβουλα.

Το βασικό πρόβλημα, σύμφωνα με τον ίδιο, είναι ότι οι παραδοσιακές ομάδες κυβερνοασφάλειας έχουν εκπαιδευτεί να εντοπίζουν και να «μπαλώνουν» συγκεκριμένα τεχνικά κενά. Η Τεχνητή Νοημοσύνη όμως δεν λειτουργεί σαν συμβατικό λογισμικό. «Ένα bug μπορείς να το διορθώσεις. Έναν εγκέφαλο όχι», λέει χαρακτηριστικά, περιγράφοντας την ασυμβατότητα ανάμεσα στη λογική της κλασικής ασφάλειας και στον τρόπο με τον οποίο σπάνε τα μοντέλα AI.

Το χάσμα αυτό γίνεται ορατό σε πραγματικές εφαρμογές. Ένας έλεγχος ασφαλείας μπορεί να εντοπίσει τεχνικές αδυναμίες, αλλά να παραβλέψει το πιο κρίσιμο ερώτημα: τι συμβαίνει αν κάποιος χειραγωγήσει το μοντέλο μέσω γλώσσας, έμμεσων οδηγιών ή παραπλανητικών prompts ώστε να κάνει κάτι που δεν θα έπρεπε; Σε αντίθεση με το παραδοσιακό software, τα συστήματα AI μπορούν να «ξεγελαστούν» όχι με κώδικα, αλλά με λέξεις.

Όσοι έχουν εμπειρία τόσο στην κυβερνοασφάλεια όσο και στην ασφάλεια Τεχνητής Νοημοσύνης γνωρίζουν πώς να αντιδράσουν σε τέτοια σενάρια. Αν, για παράδειγμα, ένα μοντέλο παραχθεί κακόβουλο λογισμικό, θα το απομονώσουν σε ελεγχόμενο περιβάλλον και θα διασφαλίσουν ότι η έξοδος του AI δεν επηρεάζει κρίσιμα συστήματα. Αυτή η διασταύρωση δεξιοτήτων, σύμφωνα με τον Σάλχοφ, είναι και το πεδίο όπου θα δημιουργηθούν οι θέσεις εργασίας ασφάλειας του μέλλοντος.

Την ίδια στιγμή, ο χώρος των startups ασφάλειας AI αναπτύσσεται με ταχύτητα, αλλά όχι χωρίς υπερβολές. Ο Σάλχοφ προειδοποιεί ότι πολλές νεοφυείς επιχειρήσεις διαφημίζουν «ασπίδες» προστασίας που στην πράξη δεν μπορούν να καλύψουν το εύρος των πιθανών επιθέσεων. Η ιδέα ότι ένα εργαλείο μπορεί να εντοπίσει ή να αποτρέψει κάθε πιθανή κατάχρηση ενός μοντέλου είναι, όπως λέει, παραπλανητική.

Καθώς τα συστήματα Τεχνητής Νοημοσύνης μπορούν να χειραγωγηθούν με σχεδόν άπειρους τρόπους, η αγορά –κατά την εκτίμησή του– θα περάσει φάση διόρθωσης, όπου πολλά τέτοια «προστατευτικά» προϊόντα θα αποδειχθούν μη βιώσιμα.

Παρά τις επιφυλάξεις, το επενδυτικό ενδιαφέρον παραμένει ισχυρό. Οι μεγάλες εταιρείες τεχνολογίας και τα funds διοχετεύουν κεφάλαια σε λύσεις που υπόσχονται μεγαλύτερη ασφάλεια για τα συστήματα AI, σε ένα περιβάλλον όπου τα πολυ-cloud και υβριδικά μοντέλα γίνονται κανόνας και οι κίνδυνοι πολλαπλασιάζονται.

Το βέβαιο είναι ότι η Τεχνητή Νοημοσύνη δεν απλώς προσθέτει έναν ακόμη τομέα κινδύνου. Αλλάζει ριζικά τον τρόπο με τον οποίο πρέπει να σκεφτόμαστε την ασφάλεια.

Διαβάστε ακόμη

Τι αλλάζει στα τιμολόγια της ΕΥΔΑΠ – Τι ισχύει για τους καταναλωτές

Dimand: Πούλησε το Μινιόν στην Alpha Bank για 36,7 εκατ.

Ο Δεκέμβριος των megadeals: Συγχωνεύσεις, εξαγορές και μάχες ισχύος

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα