Το Ισραήλ ανέπτυξε νέα εργαλεία τεχνητής νοημοσύνης για να αποκτήσει πλεονέκτημα στον πόλεμο – μερικές φορές με φονικές συνέπειες.

Στα τέλη του 2023, το Ισραήλ είχε θέσει ως στόχο την εξόντωση του Ιμπραχίμ Μπιαρί, κορυφαίου διοικητή της Χαμάς στη βόρεια Λωρίδα της Γάζας και βασικού οργανωτή των σφαγών της 7ης Οκτωβρίου. Ωστόσο, η ισραηλινή κατασκοπεία δεν μπορούσε να τον εντοπίσει, καθώς θεωρούσε ότι είχε καταφύγει στο υπόγειο δίκτυο σηράγγων της Γάζας.

Έτσι, Ισραηλινοί αξιωματούχοι στράφηκαν σε μία νέα στρατιωτική τεχνολογία βασισμένη στην τεχνητή νοημοσύνη, όπως δήλωσαν τρεις Ισραηλινοί και Αμερικανοί αξιωματούχοι που γνωρίζουν το περιστατικό. Η τεχνολογία είχε αναπτυχθεί μια δεκαετία νωρίτερα, αλλά δεν είχε χρησιμοποιηθεί ποτέ σε συνθήκες μάχης. Η αναζήτηση του Μπιαρί λειτούργησε ως κίνητρο για τη βελτίωσή της, με τους μηχανικούς της Μονάδας 8200 —του ισραηλινού αντίστοιχου της NSA— να ενσωματώνουν την τεχνητή νοημοσύνη στο εργαλείο.

Λίγο αργότερα, αφού το Ισραήλ παρακολούθησε τις τηλεφωνικές επικοινωνίες του Μπιαρί, δοκίμασε το σύστημα τεχνητής νοημοσύνης που ανέλυσε τον ήχο των κλήσεων και παρείχε κατά προσέγγιση την τοποθεσία από την οποία γίνονταν. Με βάση αυτή την πληροφορία, στις 31 Οκτωβρίου 2023 πραγματοποιήθηκε αεροπορική επιδρομή που σκότωσε τον Μπιαρί. Σύμφωνα με την οργάνωση Airwars, η επίθεση κόστισε επίσης τη ζωή σε περισσότερους από 125 αμάχους.

Αυτό το εργαλείο ήταν μόνο ένα από τα παραδείγματα του πώς το Ισραήλ αξιοποίησε τον πόλεμο στη Γάζα για να δοκιμάσει και να αναπτύξει τεχνολογίες τεχνητής νοημοσύνης σε πραγματικές συνθήκες μάχης, όπως αποκάλυψαν εννέα Αμερικανοί και Ισραηλινοί αμυντικοί αξιωματούχοι, μιλώντας ανώνυμα λόγω της εμπιστευτικής φύσης των έργων.

Το τελευταίο 18μηνο, το Ισραήλ έχει συνδυάσει την τεχνητή νοημοσύνη με λογισμικό αναγνώρισης προσώπου για τον εντοπισμό τραυματισμένων ή μερικώς καλυμμένων προσώπων, έχει χρησιμοποιήσει Α.Ι. για την επιλογή πιθανών στόχων αεροπορικών επιθέσεων και έχει δημιουργήσει μοντέλο φυσικής γλώσσας στα αραβικά, ώστε να αναλύει μηνύματα, αναρτήσεις και άλλα δεδομένα.

Πολλά από αυτά τα πρότζεκτ αποτέλεσαν καρπό συνεργασίας μεταξύ στρατιωτών της Μονάδας 8200 και έφεδρων που εργάζονται σε εταιρείες τεχνολογίας όπως η Google, η Microsoft και η Meta. Δημιούργησαν έναν κόμβο καινοτομίας με την ονομασία «The Studio», όπου συνδέονταν οι ειδικοί με έργα τεχνητής νοημοσύνης.

Όμως η ανάπτυξη αυτών των τεχνολογιών οδήγησε και σε λάθη: λανθασμένες ταυτοποιήσεις, συλλήψεις αθώων και απώλειες αμάχων, όπως παραδέχθηκαν αξιωματούχοι από τις δύο χώρες. Πολλοί από αυτούς εξέφρασαν προβληματισμούς για τις ηθικές συνέπειες της χρήσης τέτοιων εργαλείων.

Καμία άλλη χώρα δεν έχει χρησιμοποιήσει τόσο ενεργά την τεχνητή νοημοσύνη σε πραγματικές συνθήκες πολέμου, δήλωσαν Ευρωπαίοι και Αμερικανοί αμυντικοί αναλυτές. Το Ισραήλ προσφέρει μια πρόγευση του πώς μπορεί να εξελιχθούν οι μελλοντικές συγκρούσεις.

«Η επείγουσα ανάγκη διαχείρισης της κρίσης επιτάχυνε την καινοτομία, κυρίως βασισμένη στην τεχνητή νοημοσύνη», είπε η Χαντάς Λόρμπερ, επικεφαλής του Ινστιτούτου Εφαρμοσμένης Έρευνας στην Υπεύθυνη Α.Ι. στο Τεχνολογικό Ινστιτούτο Χόλον και πρώην διευθύντρια του Ισραηλινού Συμβουλίου Εθνικής Ασφαλείας. «Πρόκειται για τεχνολογίες που άλλαξαν τους όρους στο πεδίο μάχης».

Ωστόσο, όπως υπογράμμισε, αυτές οι τεχνολογίες «εγείρουν σοβαρά ηθικά ζητήματα» και πρέπει πάντα να υπάρχουν μηχανισμοί ελέγχου, με τις τελικές αποφάσεις να λαμβάνονται από ανθρώπους.

Εκπρόσωπος του ισραηλινού στρατού αρνήθηκε να σχολιάσει συγκεκριμένες τεχνολογίες, επικαλούμενη τη «μυστική φύση» τους. Τόνισε πως το Ισραήλ «δεσμεύεται για τη νόμιμη και υπεύθυνη χρήση εργαλείων τεχνολογίας δεδομένων» και ότι η επίθεση στον Μπιαρί ερευνάται, χωρίς να μπορεί να δοθεί περισσότερη πληροφόρηση προς το παρόν.

Οι εταιρείες Meta και Microsoft αρνήθηκαν να σχολιάσουν, ενώ η Google ανέφερε ότι «έχει εργαζόμενους που υπηρετούν ως έφεδροι σε διάφορες χώρες, αλλά το έργο τους δεν σχετίζεται με την εταιρεία».

Στο παρελθόν, το Ισραήλ είχε ξαναχρησιμοποιήσει συγκρούσεις σε Γάζα και Λίβανο για να πειραματιστεί με τεχνολογίες όπως drones, εργαλεία παρακολούθησης κινητών και το σύστημα Iron Dome.

Μετά τις επιθέσεις της Χαμάς στις 7 Οκτωβρίου 2023, με περισσότερους από 1.200 νεκρούς και 250 ομήρους, η χρήση Α.Ι. τεχνολογιών εγκρίθηκε άμεσα. Έτσι ξεκίνησε η συνεργασία της Μονάδας 8200 με έφεδρους του «Studio» για την ταχεία ανάπτυξη νέων δυνατοτήτων.

Ο Άβι Χασόν, επικεφαλής του Startup Nation Central, δήλωσε πως οι έφεδροι από Meta, Google και Microsoft έφεραν τεχνογνωσία και πρόσβαση σε κρίσιμες τεχνολογίες που δεν υπήρχαν στις ένοπλες δυνάμεις.

Η τεχνητή νοημοσύνη χρησιμοποιήθηκε και για την αναβάθμιση των drones. Ο Αβίβ Σαπίρα, CEO της εταιρείας XTEND, δήλωσε ότι πλέον τα drones μπορούν να εντοπίζουν και να παρακολουθούν στόχους όπως κινούμενα οχήματα ή άτομα με «θανάσιμη ακρίβεια».

Σύμφωνα με τον ίδιο, τόσο το ισραηλινό όσο και το αμερικανικό Πεντάγωνο γνωρίζουν τις ηθικές διαστάσεις της χρήσης Α.Ι. στον πόλεμο και τις συζητούν.

Ένα από τα πιο φιλόδοξα έργα του «Studio» ήταν η ανάπτυξη μεγάλου γλωσσικού μοντέλου στα αραβικά. Μέχρι πρότινος, η έλλειψη δεδομένων από διαλέκτους δυσκόλευε την εκπαίδευση τέτοιων μοντέλων. Το Ισραήλ όμως διέθετε δεκαετίες υποκλαπεισών επικοινωνιών και αναρτήσεων σε διαλέκτους, κάτι που του επέτρεψε να εκπαιδεύσει το μοντέλο και να δημιουργήσει chatbot ικανό να αναλύει και πολυμέσα, όπως φωτογραφίες και βίντεο.

Μετά τη δολοφονία του Χασάν Νασράλα τον Σεπτέμβριο, το chatbot ανέλυσε τις αντιδράσεις στον αραβικό κόσμο, ανιχνεύοντας τις διαφορές ανάμεσα στις διαλέκτους του Λιβάνου για να αξιολογήσει την κοινωνική πίεση για αντίποινα.

Ωστόσο, σε ορισμένες περιπτώσεις μπέρδευε λέξεις ή slang, απαιτώντας παρέμβαση ειδικών αναλυτών. Επίσης, έδινε λανθασμένες απαντήσεις — όπως φωτογραφίες σωλήνων αντί για όπλα — όμως γενικά επιτάχυνε σημαντικά την ανάλυση δεδομένων.

Μετά τις 7 Οκτωβρίου, το Ισραήλ τοποθέτησε κάμερες σε προσωρινά checkpoints στη Γάζα, ικανές να αποστέλλουν εικόνες υψηλής ανάλυσης στο σύστημα αναγνώρισης προσώπου. Κι εκεί σημειώθηκαν σφάλματα, με πολίτες να συλλαμβάνονται κατά λάθος.

Παράλληλα, η τεχνητή νοημοσύνη χρησιμοποιήθηκε και για την ανάλυση βάσεων δεδομένων με μέλη της Χαμάς, μέσω του αλγορίθμου “Lavender”. Το σύστημα προβλέπει πιθανούς νέους στόχους βάσει μοτίβων συμπεριφοράς, αν και οι προβλέψεις του δεν είναι πάντα ακριβείς.

Η εξόντωση των ηγετών της Χαμάς παραμένει πρωταρχικός στόχος. Στην περίπτωση του Μπιαρί, η τεχνητή νοημοσύνη ανέλυσε και ήχους από βομβαρδισμούς για να εντοπίσει την τοποθεσία του. Παρά την προειδοποίηση για πυκνή αστική περιοχή, η επιχείρηση εγκρίθηκε. Έκτοτε, το εργαλείο ήχου έχει εξελιχθεί και χρησιμοποιείται και για τον εντοπισμό ομήρων μέσα στο δίκτυο σηράγγων.

Πηγή: The New York Times