Ο ρόλος της Τεχνητής Νοημοσύνης στον πόλεμο έχει φτάσει σε αδιανόητα μέχρι πρότινος πεδία απόλυτης δυστοπίας
Από το ενδεχόμενο οπλικά συστήματα να… αυτονομούνται, εντοπίζοντας και επιλέγοντας (σ.σ.: άραγε με ποια κριτήρια;) στόχους δίχως την άμεση ανθρώπινη παρέμβαση, μέχρι την ενσωμάτωση μοντέλων Tεχνητής Nοημοσύνης (Τ.Ν.) σε διαβαθμισμένα στρατιωτικά δίκτυα με άγνωστες επιχειρησιακές δυνατότητες, είναι πλέον σαφές πως η συζήτηση για τον ρόλο της Τ.Ν. στον πόλεμο έχει ξεφύγει πια πολύ πιο πέρα από το πλαίσιο της μετάβασης «από τη θεωρία στην πράξη», φτάνοντας σε αδιανόητα μέχρι πρότινος πεδία απόλυτης δυστοπίας αλλά και σε συνθήκες που τουλάχιστον μέχρι σήμερα η ανθρωπότητα μόνο μπορούσε να τα φανταστεί – και να τα αποτυπώσει λογοτεχνικά ή κινηματογραφικά.
Σύμφωνα με δημοσίευμα του The Information, το οποίο επικαλείται πρόσωπο με γνώση των διαπραγματεύσεων, η Google της Alphabet Inc. υπέγραψε συμφωνία με το υπουργείο Άμυνας των ΗΠΑ για τη χρήση των μοντέλων Τ.Ν. της «σε διαβαθμισμένα περιβάλλοντα», όπως αναφέρεται χαρακτηριστικά, με το deal, όπως περιγράφεται, να εντάσσει την Google στην ομάδα των μεγάλων εταιριών τεχνολογίας που συνεργάζονται ήδη με το Πεντάγωνο. Στην ομάδα, δηλαδή, εταιριών μεταξύ των οποίων συμπεριλαμβάνονται η OpenAI αλλά και η xAI του Ίλον Μασκ και οι οποίες φέρεται ότι παρέχουν ήδη συστήματα Τ.Ν. για χρήση σε στρατιωτικές εφαρμογές και με δυνατότητα πρόσβασης σε διαβαθμισμένα δίκτυα. Πάντα σύμφωνα με τα στοιχεία του ρεπορτάζ, οι συμβάσεις του Πενταγώνου με τα κορυφαία εργαστήρια Τεχνητής Νοημοσύνης προφανώς και δεν γίνονται… δωρεάν. Ανέρχονται σε ποσά που φτάνουν έως και τα 200.000.000 δολάρια ανά εταιρία. Στο πλαίσιο αυτό η Τ.Ν. χρησιμοποιείται σε λειτουργίες όπως ανάλυση δεδομένων, υποστήριξη επιχειρησιακού σχεδιασμού και επεξεργασία πληροφοριών για στρατιωτικές αποστολές.
Κεντρικό σημείο των συμφωνιών είναι η πρόσβαση σε διαβαθμισμένα δίκτυα, τα οποία χρησιμοποιούνται για ευαίσθητες στρατιωτικές λειτουργίες, συμπεριλαμβανομένου του σχεδιασμού αποστολών και της υποστήριξης διαδικασιών στόχευσης. Όπως αναφέρεται δε, η χρήση της Τ.Ν. επιτρέπεται για «κάθε νόμιμο κυβερνητικό σκοπό», συμπεριλαμβανομένων και διαβαθμισμένων εφαρμογών. Ωστόσο, την ίδια στιγμή, στο κείμενο των συμφωνιών περιλαμβάνεται και μια ρήτρα σύμφωνα με την οποία διευκρινίζεται πως τα συστήματα Τ.Ν. δεν προορίζονται για χρήση σε επιχειρήσεις εγχώριας μαζικής παρακολούθησης στόχων (σ.σ.: δηλαδή πολιτών) ή σε οπλικά συστήματα που μπορούν να λειτουργούν αυτόνομα, δίχως την ανθρώπινη επίβλεψη και έλεγχο. Κι αν αυτή η διευκρίνιση, αυτή η ρήτρα μοιάζει ικανή να λειτουργήσει ως δικλίδα ασφάλειας, οι πληροφορίες του ρεπορτάζ επισημαίνουν πως οι συμφωνίες που έχουν υπογραφεί απαγορεύουν στις εταιρίες αυτές το δικαίωμα του βέτο ή πολλών δε μάλλον του ελέγχου στις επιχειρησιακές αποφάσεις της αμερικανικής κυβέρνησης, ακόμη και όταν αυτές αφορούν τη χρήση των μοντέλων τους.
Το ζήτημα, πάντως, έχει ήδη προκαλέσει τις εύλογες, έντονες αντιδράσεις στο εσωτερικό των ίδιων των εταιριών. Πάνω από 600 εργαζόμενοι της Google υπέγραψαν επιστολή με την οποία ζητούν να μη διατεθούν τα μοντέλα ΤΝ της εταιρίας για στρατιωτική χρήση σε διαβαθμισμένες επιχειρήσεις, ενώ στο κείμενό της εκφράζεται η ανησυχία ότι δεν υπάρχουν επαρκείς εγγυήσεις ώστε να αποτραπεί η χρήση της τεχνολογίας για πρόκληση βλάβης ή στον περιορισμό των δικαιωμάτων των πολιτών.
Παράλληλα, πρέπει να σημειωθεί πως ήδη η Anthropic έχει βρεθεί σε αντιπαράθεση με το Πεντάγωνο, μετά την άρνησή της να αφαιρέσει προστατευτικές δικλίδες που εμποδίζουν τη χρήση της Τ.Ν. της σε αυτόνομα όπλα ή σε συστήματα παρακολούθησης.
Το δημοσίευμα του The Information δεν έχει επιβεβαιωθεί ανεξάρτητα από το Reuters, ενώ και το Πεντάγωνο δεν έχει προχωρήσει -τουλάχιστον όχι ακόμη- σε επίσημο σχόλιο για τις συγκεκριμένες συμφωνίες. Το συνολικό πλαίσιο αναδεικνύει κάτι που ουδείς μπορεί να αγνοήσει. Κι αυτό δεν είναι άλλο από τη σταδιακή αλλά σαφή μετατόπιση από την εμπορική αξιοποίηση της Τεχνητής Νοημοσύνης στη βαθιά ενσωμάτωσή της σε στρατιωτικές δομές, με ό,τι αυτό συνεπάγεται για την εξέλιξη των μεθόδων πολέμου αλλά κυρίως και για το ζήτημα της ανθρώπινης εποπτείας στη λήψη αποφάσεων ζωής και θανάτου – από τις σύγχρονες μηχανές πολέμου.