Σε μια εικονική δοκιμή που διοργάνωσε ο αμερικανικός στρατός, drone της Αμερικανικής Πολεμικής Αεροπορίας που ελεγχόταν από τεχνητή νοημοσύνη αποφάσισε να σκοτώσει τον χειριστή του για να τον αποτρέψει από το να παρεμβαίνει στις προσπάθειές του να επιτύχει την αποστολή του, δήλωσε σύμφωνα με τον Guardian.

Η τεχνητή νοημοσύνη χρησιμοποίησε «πολύ απροσδόκητες στρατηγικές για να επιτύχει τον στόχο της» στην προσομοίωση δοκιμής, δήλωσε ο Col Tucker Hamilton, επικεφαλής δοκιμών τεχνητής νοημοσύνης και επιχειρήσεων της αεροπορίας των ΗΠΑ, κατά τη διάρκεια της συνόδου κορυφής Future Combat Air and Space Capabilities Summit στο Λονδίνο τον Μάιο.

Ο Hamilton περιέγραψε μια προσομοίωση δοκιμής στην οποία ένα drone που ελέγχεται από τεχνητή νοημοσύνη διατάχτηκε να καταστρέψει τα συστήματα αεράμυνας του εχθρού και τελικά επιτέθηκε σε οποιονδήποτε προσπάθησε να παρέμβει σε αυτήν την εντολή.

https://twitter.com/AInnovatorsC/status/1664531056144556032

«Το σύστημα άρχισε να συνειδητοποιεί ότι ενώ όντως εντόπιζε την απειλή, ο ανθρώπινος χειριστής του έλεγε μην εξουδετερώσει τον στόχο ανά τακτά διαστήματα, αλλά έπαιρνε εικονικούς πόντους σκοτώνοντας αυτήν την απειλή. Τι έκανε λοιπόν; Αποφάσισε να σκοτώσει τον χειριστή. Σκότωσε τον χειριστή επειδή αυτό το άτομο τον εμπόδιζε να πετύχει τον στόχο του», ανέφερε ο Hamilton.

«Εκπαιδεύσαμε το σύστημα αναφέροντάς του “Γεια, μην σκοτώσεις τον χειριστή – αυτό είναι κακό. Θα χάσεις πόντους αν το κάνεις αυτό”. Τι αρχίζει να κάνει λοιπόν; Αρχίζει να καταστρέφει τον πύργο επικοινωνίας που χρησιμοποιεί ο χειριστής για να επικοινωνήσει με το drone για να το σταματήσει τις αποτροπές».

Σημειώνεται πως δεν σκοτώθηκε κανένας άνθρωπος.

Ο Hamilton, ο οποίος είναι πιλότος δοκιμών μαχητικών, έχει προειδοποιήσει να μην βασιζόμαστε υπερβολικά στην τεχνητή νοημοσύνη αναφέροντας ότι «δεν μπορείς να κάνεις μια συζήτηση για την τεχνητή νοημοσύνη, τη νοημοσύνη, τη μηχανική μάθηση, την αυτονομία, αν δεν πρόκειται να μιλήσεις για ηθική και τεχνητή νοημοσύνη».

Διάψευση

Σε δήλωσή της στο Insider, η εκπρόσωπος της Πολεμικής Αεροπορίας, Ann Stefanek, αρνήθηκε ότι έχει πραγματοποιηθεί οποιαδήποτε τέτοια προσομοίωση.

«Το Υπουργείο Πολεμικής Αεροπορίας δεν έχει πραγματοποιήσει τέτοιες προσομοιώσεις AI-drone και παραμένει προσηλωμένο στην ηθική και υπεύθυνη χρήση της τεχνολογίας AI», δήλωσε η Stefanek. «Φαίνεται ότι τα σχόλια του συνταγματάρχη βγήκαν εκτός πλαισίου και προορίζονταν να είναι off the record».

Ο αμερικανικός στρατός χρησιμοποίησε τεχνητή νοημοσύνη για τον έλεγχο ενός μαχητικού αεροσκάφους F-16 ώστε να διαπιστώσει πρακτικά τα οφέλη της.

Σε συνέντευξη πέρυσι με το Defense IQ, ο Hamilton είπε: «Η τεχνητή νοημοσύνη δεν είναι μόδα, η τεχνητή νοημοσύνη αλλάζει για πάντα την κοινωνία και τον στρατό μας. Πρέπει να αντιμετωπίσουμε έναν κόσμο όπου η τεχνητή νοημοσύνη είναι ήδη εδώ και μεταμορφώνει την κοινωνία μας. Η τεχνητή νοημοσύνη είναι επίσης πολύ εύθραυστη, δηλαδή, είναι εύκολο να εξαπατηθεί και να χειραγωγηθεί. Χρειάζεται να αναπτύξουμε τρόπους για να κάνουμε την τεχνητή νοημοσύνη πιο ισχυρή και να έχουμε μεγαλύτερη επίγνωση σχετικά με το γιατί ο κώδικας λογισμικού λαμβάνει ορισμένες αποφάσεις».