Σε μια σπάνια πρωτοβουλία, οι ανταγωνιστικές μεταξύ τους εταιρείες, OpenAI, Anthropic και Google ξεκίνησαν να συνεργάζονται με στόχο να περιορίσουν τις πρακτικές Κινέζων ανταγωνιστών, που επιχειρούν να αντλήσουν αποτελέσματα από προηγμένα αμερικανικά μοντέλα τεχνητής νοημοσύνης, αποκτώντας έτσι πλεονέκτημα στον παγκόσμιο αγώνα για την AI.

Όπως αναφέρει το Bloomberg σε αποκλειστικό ρεπορτάζ του, οι εταιρείες ανταλλάσσουν πληροφορίες μέσω του Frontier Model Forum, ενός μη κερδοσκοπικού φορέα που ίδρυσαν το 2023 μαζί με τη Microsoft, με στόχο τον εντοπισμό των λεγόμενων προσπαθειών «adversarial distillation», που παραβιάζουν τους όρους χρήσης τους, σύμφωνα με πηγές που επικαλείται το Bloomberg.

Η ασυνήθιστη αυτή σύμπραξη αναδεικνύει τη σοβαρότητα ενός ζητήματος που έχουν θέσει οι αμερικανικές εταιρείες AI: ορισμένοι χρήστες —ιδίως στην Κίνα— δημιουργούν απομιμήσεις των προϊόντων τους, οι οποίες μπορούν να πιέσουν τις τιμές, να αποσπάσουν πελάτες και να εγείρουν ζητήματα εθνικής ασφάλειας. Αμερικανοί αξιωματούχοι εκτιμούν ότι η μη εξουσιοδοτημένη «distillation» κοστίζει δισεκατομμύρια δολάρια ετησίως σε χαμένα κέρδη για τα εργαστήρια της Silicon Valley.

Η OpenAI επιβεβαίωσε ότι συμμετέχει στην ανταλλαγή πληροφοριών σχετικά με την adversarial distillation μέσω του Frontier Model Forum και παρέπεμψε σε πρόσφατο υπόμνημα προς το Κογκρέσο, στο οποίο κατηγορεί την κινεζική εταιρεία DeepSeek ότι επιχειρεί να «εκμεταλλευτεί δωρεάν τις δυνατότητες που ανέπτυξαν η OpenAI και άλλα αμερικανικά εργαστήρια αιχμής». Η Google, η Anthropic και το Forum αρνήθηκαν να σχολιάσουν.

Η distillation αποτελεί τεχνική κατά την οποία ένα παλαιότερο «teacher» μοντέλο χρησιμοποιείται για την εκπαίδευση ενός νεότερου «student» μοντέλου, που αναπαράγει τις δυνατότητες του πρώτου — συχνά με πολύ χαμηλότερο κόστος από την ανάπτυξη ενός μοντέλου από το μηδέν. Ορισμένες μορφές της πρακτικής θεωρούνται αποδεκτές, όπως όταν εταιρείες δημιουργούν μικρότερες εκδοχές των δικών τους μοντέλων ή επιτρέπουν σε τρίτους να αναπτύξουν μη ανταγωνιστικές εφαρμογές.

Ωστόσο, η distillation γίνεται αμφιλεγόμενη όταν χρησιμοποιείται από τρίτους —ιδίως σε χώρες όπως η Κίνα ή η Ρωσία— για την αναπαραγωγή ιδιόκτητης τεχνολογίας χωρίς άδεια. Οι κορυφαίες αμερικανικές εταιρείες AI προειδοποιούν ότι τέτοιες πρακτικές μπορεί να οδηγήσουν στην ανάπτυξη μοντέλων χωρίς βασικές δικλείδες ασφαλείας, όπως περιορισμούς που αποτρέπουν τη δημιουργία επικίνδυνων βιολογικών παραγόντων.

Τα περισσότερα μοντέλα που αναπτύσσονται από κινεζικά εργαστήρια είναι «open weight», δηλαδή βασικά στοιχεία τους είναι δημόσια διαθέσιμα, επιτρέποντας στους χρήστες να τα κατεβάζουν και να τα εκτελούν σε δικές τους υποδομές — γεγονός που τα καθιστά φθηνότερα στη χρήση. Αυτό δημιουργεί οικονομική πίεση στις αμερικανικές εταιρείες που διατηρούν κλειστά τα μοντέλα τους, ποντάροντας σε συνδρομές για να καλύψουν τις τεράστιες επενδύσεις σε data centers και υποδομές.

Η distillation βρέθηκε στο επίκεντρο τον Ιανουάριο του 2025, μετά την αιφνιδιαστική κυκλοφορία του μοντέλου R1 από την DeepSeek, που προκάλεσε αναταράξεις στην αγορά AI. Λίγο αργότερα, η Microsoft και η OpenAI διερεύνησαν αν η κινεζική startup είχε εξαγάγει παράνομα μεγάλες ποσότητες δεδομένων από τα μοντέλα της αμερικανικής εταιρείας για να αναπτύξει το R1.

Τον Φεβρουάριο, η OpenAI προειδοποίησε Αμερικανούς νομοθέτες ότι η DeepSeek συνέχιζε να χρησιμοποιεί ολοένα πιο εξελιγμένες μεθόδους για την εξαγωγή αποτελεσμάτων από αμερικανικά μοντέλα, παρά τα αυξημένα μέτρα προστασίας. Στο ίδιο υπόμνημα, η εταιρεία υποστήριξε ότι η DeepSeek βασίζεται στη distillation για την ανάπτυξη νέας έκδοσης του chatbot της.

Η ανταλλαγή πληροφοριών μεταξύ των εταιρειών AI θυμίζει πρακτικές της κυβερνοασφάλειας, όπου οι εταιρείες μοιράζονται δεδομένα για επιθέσεις και τακτικές αντιπάλων, ώστε να ενισχύσουν τις άμυνές τους. Με παρόμοιο τρόπο, οι εταιρείες AI επιδιώκουν να εντοπίσουν πιο αποτελεσματικά τέτοιες πρακτικές, να αναγνωρίσουν τους υπεύθυνους και να αποτρέψουν τη μη εξουσιοδοτημένη χρήση.

Αξιωματούχοι της κυβέρνησης Τραμπ έχουν αφήσει ανοιχτό το ενδεχόμενο ενίσχυσης αυτής της συνεργασίας. Το σχέδιο δράσης για την τεχνητή νοημοσύνη που παρουσίασε ο Ντόναλντ Τραμπ πέρυσι προέβλεπε τη δημιουργία ενός κέντρου ανταλλαγής και ανάλυσης πληροφοριών, μεταξύ άλλων για την αντιμετώπιση τέτοιων απειλών.

Προς το παρόν, η ανταλλαγή πληροφοριών παραμένει περιορισμένη, καθώς οι εταιρείες AI δεν έχουν σαφή εικόνα για το τι επιτρέπεται να μοιράζονται βάσει της ισχύουσας αντιμονοπωλιακής νομοθεσίας, σύμφωνα με πηγές με γνώση του θέματος. Οι ίδιες πηγές σημειώνουν ότι απαιτείται μεγαλύτερη σαφήνεια από την αμερικανική κυβέρνηση.

Η distillation αποτελεί κορυφαία ανησυχία για τις αμερικανικές εταιρείες AI από τις αρχές του 2025, όταν η DeepSeek αναστάτωσε τις αγορές με το R1. Ταυτόχρονα, η ανάπτυξη ισχυρών open-source μοντέλων στην Κίνα συνεχίζεται, με τη βιομηχανία να αναμένει την επόμενη μεγάλη αναβάθμιση της DeepSeek.

Πέρυσι, η Anthropic μπλόκαρε εταιρείες υπό κινεζικό έλεγχο από τη χρήση του chatbot Claude και τον Φεβρουάριο εντόπισε τρία κινεζικά εργαστήρια AI —DeepSeek, Moonshot και MiniMax— να εξάγουν παράνομα δυνατότητες του μοντέλου μέσω distillation. Φέτος, η εταιρεία προειδοποίησε ότι η απειλή «εκτείνεται πέρα από μία μόνο εταιρεία ή περιοχή» και συνιστά κίνδυνο για την εθνική ασφάλεια, καθώς τα μοντέλα που προκύπτουν συχνά στερούνται βασικών μηχανισμών ασφαλείας.

Η Google έχει επίσης αναφέρει αύξηση των προσπαθειών εξαγωγής δυνατοτήτων μοντέλων. Οι τρεις αμερικανικές εταιρείες δεν έχουν ακόμη παρουσιάσει σαφή στοιχεία για το πόσο εξαρτάται η καινοτομία της Κίνας από τη distillation, ωστόσο επισημαίνουν ότι η έκταση των επιθέσεων μπορεί να εκτιμηθεί από τον όγκο των μεγάλων αιτημάτων δεδομένων.

Διαβάστε ακόμη

Μεγάλες απώλειες για τις Big Tech – Πώς χάθηκαν 200 δισ. σε λίγους μήνες

Η θεσμική αντεπίθεση Μητσοτάκη και το στοίχημα της επανεκκίνησης

Άνοιξε η στρόφιγγα των τραπεζών για μικρομεσαίες επιχειρήσεις – Τι αναφέρει η ΤτΕ

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα