Η όξυνση της σύγκρουσης μεταξύ Ηνωμένων Πολιτειών, Ισραήλ και Ιράν επανέφερε στο προσκήνιο έναν από τους πιο αμφιλεγόμενους τομείς της σύγχρονης τεχνολογίας: την αξιοποίηση της τεχνητής νοημοσύνης στον πόλεμο.

Μόλις μία ημέρα πριν από την αμερικανο-ισραηλινή επίθεση της 28ης Φεβρουαρίου, η αμερικανική κυβέρνηση απομάκρυνε έναν βασικό προμηθευτή τεχνολογίας AI, σε μια διαμάχη που ανέδειξε τις έντονες αντιρρήσεις γύρω από τις αποδεκτές στρατιωτικές χρήσεις τέτοιων συστημάτων. Την ίδια περίοδο, από τις 2 έως τις 6 Μαρτίου στη Γενεύη, ειδικοί στο διεθνές δίκαιο, ακαδημαϊκοί και εμπειρογνώμονες συζήτησαν τα φονικά αυτόνομα οπλικά συστήματα και τις προμήθειες στρατιωτικής τεχνητής νοημοσύνης, στο πλαίσιο των προσπαθειών για διεθνή ρύθμιση.

Όπως επισημαίνουν οι ερευνητές, η τεχνολογία εξελίσσεται ταχύτερα από τη διπλωματία. Ο πολιτικός επιστήμονας Μάικλ Χόροβιτς από το Πανεπιστήμιο της Πενσιλβάνια τονίζει ότι η πρόοδος της AI ξεπερνά κατά πολύ τον ρυθμό των διεθνών διαβουλεύσεων. Ο Κρεγκ Τζόουνς, πολιτικός γεωγράφος στο Πανεπιστήμιο του Νιουκάσλ, προειδοποιεί:

«Η αδυναμία ρύθμισης της πολεμικής χρήσης της τεχνητής νοημοσύνης ή η μη αναστολή της μέχρι να υπάρξει συμφωνία για τη νομιμότητά της δείχνει ότι η εξάπλωση του πολέμου με AI είναι πλέον κοντά».

Η χρήση της AI από τον αμερικανικό στρατό είναι ήδη εκτεταμένη. Συστήματα βασισμένα σε μεγάλα γλωσσικά μοντέλα αξιοποιούνται για διοικητική υποστήριξη, ανάλυση πληροφοριών και ενίσχυση της λήψης αποφάσεων στο πεδίο της μάχης.

«Μύθος» η ακριβέστερη στόχευση της ΑΙ;

Το Maven Smart System, που χρησιμοποιεί τεχνητή νοημοσύνη για επεξεργασία εικόνας και επιχειρησιακή υποστήριξη, επιταχύνει τις στρατιωτικές επιχειρήσεις προτείνοντας και ιεραρχώντας στόχους. Σύμφωνα με διεθνή μέσα, το σύστημα έχει αξιοποιηθεί τόσο σε προηγούμενες συγκρούσεις όσο και σε επιθέσεις κατά του Ιράν, αν και οι λεπτομέρειες δεν είναι πλήρως γνωστές.

Η υπόθεση ότι η AI προσφέρει πιο ακριβή στόχευση και περιορίζει τις απώλειες αμάχων αμφισβητείται. Οι συγκρούσεις στην Ουκρανία και τη Γάζα, όπου η τεχνητή νοημοσύνη χρησιμοποιείται για αναγνώριση στόχων και καθοδήγηση drones, έχουν συνδεθεί με υψηλό αριθμό θυμάτων.

«Δεν υπάρχουν στοιχεία ότι η τεχνητή νοημοσύνη μειώνει τις απώλειες αμάχων — μπορεί να συμβαίνει το αντίθετο», σημειώνει ο Τζόουνς.

Η χρήση της AI για την καθοδήγηση πλήρως αυτόνομων φονικών όπλων χωρίς ανθρώπινη εποπτεία παραμένει ιδιαίτερα αμφιλεγόμενη. Αν και οι στρατοί εξετάζουν τέτοιες δυνατότητες, το διεθνές ανθρωπιστικό δίκαιο απαιτεί σαφή διάκριση μεταξύ στρατιωτικών και πολιτικών στόχων. Τα πλήρως αυτόνομα συστήματα δεν θεωρούνται ακόμη αξιόπιστα ούτε συμβατά με τους διεθνείς κανόνες, σύμφωνα με τον Χόροβιτς.

Οι συμφωνίες με την Anthropic και την OpenAI

Οι μελλοντικές χρήσεις της τεχνητής νοημοσύνης βρίσκονται στο επίκεντρο αντιπαράθεσης μεταξύ του αμερικανικού υπουργείου Πολέμου και της εταιρείας Anthropic. Από το 2024, το σύστημα Maven υποστηριζόταν από το μοντέλο Claude της Anthropic, στο πλαίσιο σύμβασης 200 εκατομμυρίων δολαρίων. Τον Ιανουάριο, το υπουργείο ζήτησε τα συστήματα AI να μπορούν να χρησιμοποιούνται «για κάθε νόμιμη χρήση» χωρίς περιορισμούς.

Η Anthropic αρνήθηκε, τονίζοντας ότι η τεχνολογία της δεν μπορεί να χρησιμοποιηθεί για μαζική παρακολούθηση ή για πλήρως αυτόνομα όπλα. Στις 27 Φεβρουαρίου, ο Πρόεδρος των Ηνωμένων Πολιτειών Ντόναλντ Τραμπ διέταξε τη διακοπή χρήσης της τεχνολογίας της εταιρείας. Ο Χόροβιτς χαρακτήρισε τη διαμάχη ως σύγκρουση γύρω από κρίσιμες μελλοντικές εφαρμογές της AI.

Μετά την απομάκρυνση της Anthropic, η κυβέρνηση προχώρησε σε συνεργασία με την OpenAI. Η εταιρεία επισημαίνει ότι η τεχνολογία της δεν θα χρησιμοποιηθεί για παρακολούθηση ή για πλήρως αυτόνομα όπλα, αν και το τοπίο παραμένει αβέβαιο, καθώς συνεχίζονται οι διαβουλεύσεις.

Ανησυχίες εργαζομένων και ειδικών

Ερευνητές και εργαζόμενοι στον τομέα εκφράζουν έντονη ανησυχία για τις πιθανές χρήσεις της τεχνητής νοημοσύνης. Εργαζόμενοι σε Google και OpenAI ζητούν να αποκλειστεί η χρήση των μοντέλων για μαζική επιτήρηση ή αυτόνομη χρήση βίας χωρίς ανθρώπινο έλεγχο.

Η πολιτική επιστήμονας Τόνι Έρσκιν υπογραμμίζει ότι η αντικατάσταση της ανθρώπινης κρίσης από την AI ενέχει σοβαρούς κινδύνους, όπως η λανθασμένη κλιμάκωση συγκρούσεων. «Τα πλήρως αυτόνομα οπλικά συστήματα χωρίς ανθρώπινη παρέμβαση είναι ηθικά απαράδεκτα», τονίζει, προσθέτοντας ότι ακόμη και τα μη αυτόνομα συστήματα απαιτούν ρύθμιση.

Γιατί είναι δύσκολη η ρύθμιση

Παρά τις διεθνείς προσπάθειες για συμφωνία, η ρύθμιση της στρατιωτικής χρήσης της AI παραμένει δύσκολη. Σύμφωνα με τον Τζόουνς, χώρες όπως οι ΗΠΑ, το Ισραήλ και η Κίνα, που αναπτύσσουν ενεργά τέτοιες τεχνολογίες, αντιτίθενται σε αυστηρότερους κανόνες.

Πιθανές εξελίξεις αναμένονται στο πλαίσιο της Σύμβασης για Ορισμένα Συμβατικά Όπλα, όπου συζητείται η ανάγκη θέσπισης αρχών υπεύθυνης χρήσης ήδη από το στάδιο των συμβάσεων.

Ωστόσο, βασικό εμπόδιο παραμένει η δυσκολία ορισμού του τι ακριβώς αποτελεί πλήρως αυτόνομο σύστημα AI. «Είναι εξαιρετικά περίπλοκο», σημειώνει ο Χέρμπερτ Λιν από το Πανεπιστήμιο Στάνφορντ, εκτιμώντας ότι ο κόσμος απέχει ακόμη πολύ από μια κοινά αποδεκτή διεθνή συμφωνία.

Διαβάστε ακόμη

Eurostat: Μειώθηκε στα 128 δισ. ευρώ το εμπορικό πλεόνασμα της ΕΕ το 2025 (γραφήματα)

ΟΟΣΑ: Αναθεωρεί προς τα κάτω την πρόβλεψη για ανάπτυξη το 2026 στην ευρωζώνη

Wall Street: Ιστορικό ρεκόρ μπόνους $49,2 δισ. το 2025 παρά την αβεβαιότητα – Στα $65,1 δισ. τα κέρδη στον τραπεζικό κλάδο

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα