Μετά την 7η Οκτωβρίου, το Ισραήλ χρησιμοποιεί τεχνητή νοημοσύνη για στοχευμένες δολοφονίες στη Γάζα – με τραγικά λάθη και μαζικές απώλειες αμάχων.
Μετά την επίθεση της 7ης Οκτωβρίου, το ισραηλινό καθεστώς προχώρησε σε εκτεταμένες στρατιωτικές επιχειρήσεις, ενσωματώνοντάς την τεχνητή νοημοσύνη σε συστήματα αναγνώρισης προσώπου για την ταυτοποίηση τραυματισμένων μαχητών, σε ανάλυση ήχου επικοινωνιών για τον εντοπισμό στόχων, καθώς και σε επεξεργασία φυσικής γλώσσας στην αραβική για την παρακολούθηση μηνυμάτων και της κίνησης στα μέσα κοινωνικής δικτύωσης.
Αυτές οι τεχνολογίες χρησιμοποιήθηκαν για στοχευμένες δολοφονίες διοικητών της Hamas και για την ανάκτηση ομήρων, βελτιούμενες σταδιακά με την πάροδο του χρόνου.
Σύμφωνα με τέσσερις Ισραηλινούς αξιωματούχους, μετά την επίθεση της 7ης Οκτωβρίου στα κατεχόμενα εδάφη —η οποία είχε ως αποτέλεσμα τον θάνατο άνω των 1.200 Ισραηλινών και την αιχμαλωσία 250 ατόμων— οι τεχνολογίες τεχνητής νοημοσύνης εγκρίθηκαν άμεσα για χρήση στο πεδίο.
Όπως ανέφεραν, αυτό οδήγησε σε συνεργασία της Μονάδας 8200 με εφεδρικές δυνάμεις στο «Studio» για την ταχεία ανάπτυξη νέων δυνατοτήτων τεχνητής νοημοσύνης.
Τους τελευταίους 18 μήνες, το κατοχικό καθεστώς συνδύασε την τεχνητή νοημοσύνη με λογισμικό αναγνώρισης προσώπου για την αντιστοίχιση μερικώς καλυμμένων ή τραυματισμένων προσώπων με πραγματικές ταυτότητες.
Επίσης, χρησιμοποίησε την τεχνητή νοημοσύνη για την κατάρτιση λιστών πιθανών στόχων αεροπορικών επιδρομών και ανέπτυξε ένα μοντέλο τεχνητής νοημοσύνης στην αραβική γλώσσα, που τροφοδοτεί ένα chatbot ικανό να σαρώνει και να αναλύει μηνύματα κειμένου, αναρτήσεις στα μέσα κοινωνικής δικτύωσης και άλλα δεδομένα στην αραβική.
Στα τέλη του 2023, το σιωνιστικό καθεστώς επιχειρούσε να δολοφονήσει τον Ibrahim Biari, διοικητή του Κεντρικού Τάγματος της Hamas στην Τζαμπάλια, ο οποίος φερόταν να είχε εμπλακεί στον σχεδιασμό της επίθεσης της 7ης Οκτωβρίου.
Οι στρατιωτικές υπηρεσίες πληροφοριών του καθεστώτος υπέκλεψαν τις επικοινωνίες του Biari με άλλα μέλη της Hamas, αλλά δεν μπόρεσαν να εντοπίσουν με ακρίβεια τη θέση του.
Τότε στράφηκαν σε ένα εργαλείο ανάλυσης ήχου με τεχνητή νοημοσύνη, ικανό να αναλύει διάφορους ήχους, όπως ηχητικά κύματα εκρήξεων και αεροπορικές επιδρομές.
Αφού εντοπίστηκε κατά προσέγγιση η τοποθεσία των επικοινωνιών του Ibrahim Biari, οι στρατιωτικοί αξιωματούχοι του καθεστώτος ενημερώθηκαν ότι η περιοχή —στην οποία περιλαμβάνονταν αρκετά συγκροτήματα διαμερισμάτων— ήταν ιδιαίτερα πυκνοκατοικημένη.
Δήλωσαν ότι, για να διασφαλιστεί ο θάνατος του Biar, έπρεπε να πληγούν πολλά κτίρια στην αεροπορική επιδρομή.
Η επιχείρηση εγκρίθηκε και εκτελέστηκε.
Έκτοτε, οι στρατιωτικές υπηρεσίες πληροφοριών του καθεστώτος χρησιμοποίησαν επίσης αυτό το εργαλείο ήχου -μαζί με χάρτες και εικόνες του περίπλοκου υπόγειου δικτύου σηράγγων της Γάζας- για την αναζήτηση ομήρων.
Σύμφωνα με δύο Ισραηλινούς αξιωματικούς, το εργαλείο έχει βελτιωθεί με την πάροδο του χρόνου, επιτυγχάνοντας μεγαλύτερη ακρίβεια στην ταυτοποίηση ατόμων.
Εντοπισμός της θέσης ατόμων
Σύμφωνα με τρεις καλά πληροφορημένους Ισραηλινούς και Αμερικανούς αξιωματούχους (τα ονόματα των οποίων δεν αποκαλύφθηκαν στην έκθεση), οι Ισραηλινοί αξιωματικοί στράφηκαν σε μια νέα στρατιωτική τεχνολογία, ενσωματωμένη με τεχνητή νοημοσύνη, για την παρακολούθηση των στόχων τους.
Η τεχνολογία αυτή είχε αναπτυχθεί περίπου πριν από μια δεκαετία, αλλά δεν είχε χρησιμοποιηθεί ποτέ στο πεδίο της μάχης.
Η προσπάθεια εντοπισμού του μάρτυρα Ibrahim Biari αποτέλεσε νέα αφορμή για τη βελτίωση του εργαλείου.
Μηχανικοί της Μονάδας 8200 —του ισραηλινού ισοδύναμου της Εθνικής Υπηρεσίας Ασφαλείας των ΗΠΑ— ενσωμάτωσαν ταχύτατα την τεχνητή νοημοσύνη στο σύστημα.
Λίγο αργότερα, οι υπηρεσίες ασφαλείας του καθεστώτος υπέκλεψαν τις τηλεφωνικές κλήσεις του Ibrahim Biari και δοκίμασαν το εργαλείο ανάλυσης ήχου βασισμένο σε τεχνητή νοημοσύνη, το οποίο εντόπισε κατά προσέγγιση τη θέση των επικοινωνιών του.
Με βάση αυτές τις πληροφορίες, το σιωνιστικό καθεστώς διέταξε αεροπορική επιδρομή στην περιοχή στις 31 Οκτωβρίου 2023, που είχε ως αποτέλεσμα τον θάνατο του Ibrahim Biari.
Σύμφωνα με έκθεση της Airwars, μιας λονδρέζικης οργάνωσης παρακολούθησης συγκρούσεων, λόγω της κατά προσέγγιση φύσης του εντοπισμού που παρήγαγε η τεχνητή νοημοσύνη, περισσότεροι από 125 άμαχοι σκοτώθηκαν επίσης στην επίθεση!
Με βάση συνεντεύξεις με εννέα Αμερικανούς και Ισραηλινούς αξιωματούχους άμυνας, το εργαλείο ήχου αποτελεί μόνο ένα παράδειγμα που δείχνει πώς το καθεστώς εκμεταλλεύτηκε τον πόλεμο στη Γάζα για να δοκιμάσει και να αναπτύξει ταχύτατα στρατιωτικές τεχνολογίες υποστηριζόμενες από τεχνητή νοημοσύνη σε πρωτοφανή κλίμακα.
Αντιδράσεις στις θηριωδίες
Πολλές από αυτές τις προσπάθειες προέκυψαν από τη συνεργασία μεταξύ εν ενεργεία στρατιωτών της Μονάδας 8200 και εφέδρων που εργάζονται σε εταιρείες τεχνολογίας όπως η Google, η Microsoft και η Meta.
Σύμφωνα με αυτούς τους ανθρώπους, η Μονάδα 8200 έχει δημιουργήσει έναν κεντρικό κόμβο που ονομάζεται «Studio», ο οποίος λειτουργεί ως κέντρο καινοτομίας και χώρος σύνδεσης ειδικών με έργα τεχνητής νοημοσύνης.
Στη μονάδα αυτή συμμετέχουν έφεδροι από τις προαναφερθείσες μεγάλες εταιρείες. Η κύρια αποστολή του Studio είναι η ταχεία προσαρμογή τεχνολογιών τεχνητής νοημοσύνης στις στρατιωτικές ανάγκες.
Ενώ το καθεστώς συνέχιζε γρήγορα να αναπτύσσει το οπλοστάσιό του σε τεχνητή νοημοσύνη, η χρήση αυτών των τεχνολογιών οδήγησε σε λανθασμένες αναγνωρίσεις, άδικες συλλήψεις και θανάτους αμάχων.
Σύμφωνα με Ευρωπαίους και Αμερικανούς αξιωματούχους άμυνας, καμία άλλη δύναμη δεν υπήρξε τόσο ενεργή όσο το καθεστώς κατοχής στη δοκιμή εργαλείων τεχνητής νοημοσύνης σε πραγματικές μάχες.
Αυτή η κατάσταση παρέχει μια πρώτη εικόνα για το πώς μπορεί να χρησιμοποιηθούν τέτοιες τεχνολογίες σε μελλοντικούς πολέμους, αλλά και μια προειδοποίηση για το πώς μπορούν να δυσλειτουργήσουν ή να κακοποιηθούν, με αποτέλεσμα τη θανάτωση αμάχων.
Η Meta και η Microsoft αρνήθηκαν να σχολιάσουν τις δολοφονίες που πραγματοποιήθηκαν στον πόλεμο της Γάζας με τη χρήση τεχνητής νοημοσύνης, αλλά η Google, σε μια προσπάθεια να απαλλαγεί από τις κατηγορίες, δήλωσε: «Έχουμε υπαλλήλους που υπηρετούν ως έφεδροι για το καθεστώς σε διάφορες χώρες του κόσμου.
Η εργασία που κάνουν αυτοί οι υπάλληλοι ως έφεδροι δεν σχετίζεται με την Google».
Ο Avi Hasson, διευθύνων σύμβουλος της μη κερδοσκοπικής οργάνωσης Startup Nation Central, που συνδέει επενδυτές με εταιρείες στα κατεχόμενα, δήλωσε: «Έφεδροι από τη Meta, την Google και τη Microsoft έχουν παίξει ζωτικό ρόλο στην προώθηση της καινοτομίας στα drones και στην ολοκλήρωση δεδομένων». Πρόσθεσε: «Οι έφεδροι έφεραν εξειδικευμένες γνώσεις και πρόσβαση σε κρίσιμες τεχνολογίες που δεν ήταν διαθέσιμες στον στρατό».
Η Αραβική Γλώσσα: Ένα πεδίο μάχης
Σύμφωνα με τρεις Ισραηλινούς αξιωματικούς, ένα από τα εργαλεία που αναπτύχθηκαν από το «Studio» ήταν ένα μοντέλο τεχνητής νοημοσύνης στην αραβική γλώσσα, ταξινομημένο ως μεγάλο γλωσσικό μοντέλο (LLM).
(Το συγκεκριμένο LLM είχε αναφερθεί προηγουμένως από τον ειδησεογραφικό ιστότοπο +972.)
Οι προγραμματιστές είχαν προηγουμένως αντιμετωπίσει δυσκολίες στη δημιουργία ενός τέτοιου μοντέλου λόγω της έλλειψης επαρκών δεδομένων στην αραβική γλώσσα για την εκπαίδευση της τεχνολογίας.
Ακόμη και όταν υπήρχαν διαθέσιμα δεδομένα, αυτά ήταν κυρίως σε τυπική γραπτή αραβική, η οποία είναι πολύ πιο επίσημη από τις δεκάδες διαφορετικές διαλέκτους της ομιλούμενης αραβικής.
Σύμφωνα με Ισραηλινούς αξιωματικούς, ο στρατός του καθεστώτος κατοχής δεν αντιμετώπισε αυτό το πρόβλημα.
Η παράνομη κυβέρνηση είχε πρόσβαση σε δεκαετίες υποκλαπέντων γραπτών μηνυμάτων, ηχογραφημένων τηλεφωνικών συνομιλιών και αναρτήσεων στα μέσα κοινωνικής δικτύωσης που συλλέχθηκαν σε καθομιλουμένη αραβική.
Ως αποτέλεσμα, στους πρώτους μήνες του πολέμου στη Γάζα, σιωνιστικά στοιχεία ανέπτυξαν το μεγάλο γλωσσικό μοντέλο και σχεδίασαν ένα chatbot ικανό να απαντά σε ερωτήματα στα αραβικά.
Ενσωμάτωσαν αυτό το εργαλείο σε πολυμεσικές βάσεις δεδομένων, επιτρέποντας σε σιωνιστές αναλυτές να πραγματοποιούν πολύπλοκες αναζητήσεις σε εικόνες και βίντεο.
Όταν το σιωνιστικό καθεστώς δολοφόνησε τον Nasralla τον Σεπτέμβριο, το αναπτυγμένο chatbot ανέλυσε τις αντιδράσεις στον αραβόφωνο κόσμο για το μαρτύριό του.
Η τεχνολογία διέκρινε μεταξύ διαφορετικών διαλέκτων εντός του Λιβάνου, ώστε να αξιολογήσει το κοινό αίσθημα και βοήθησε το καθεστώς να διαπιστώσει εάν υπήρχε πίεση από την κοινή γνώμη για την πραγματοποίηση αντίποινων.
Αναφέρεται επίσης ότι, κατά καιρούς, το chatbot δεν μπορούσε να αναγνωρίσει ορισμένους σύγχρονους αργκό όρους ή λέξεις που είχαν μεταγραφεί φωνητικά από τα αγγλικά στα αραβικά.
Ένας από τους αξιωματικούς δήλωσε ότι αυτό απαιτούσε από Ισραηλινούς αξιωματικούς πληροφοριών, εξειδικευμένους σε διάφορες διαλέκτους, να ελέγχουν και να διορθώνουν τα αποτελέσματα.
Το chatbot παρήγαγε επίσης κατά καιρούς λανθασμένα αποτελέσματα.
Για παράδειγμα, αντί να εμφανίσει μια εικόνα όπλου, παρουσίαζε μια φωτογραφία σωλήνα.
Παρ’ όλα αυτά, ανέφεραν ότι το εργαλείο τεχνητής νοημοσύνης επιτάχυνε σημαντικά τη διαδικασία έρευνας και ανάλυσης.
Αναγνώριση προσώπου και Ταυτοποίηση
Σε προσωρινά σημεία ελέγχου που στήθηκαν μεταξύ της βόρειας και της νότιας Γάζας μετά τις επιθέσεις της 7ης Οκτωβρίου, το καθεστώς χρησιμοποίησε επίσης κάμερες ικανές να καταγράφουν εικόνες υψηλής ανάλυσης Παλαιστινίων και να τις αποστέλλουν σε ένα σύστημα αναγνώρισης προσώπου βασισμένο σε τεχνητή νοημοσύνη.
Σύμφωνα με δύο αξιωματικούς πληροφοριών του καθεστώτος, το σύστημα μερικές φορές δυσκολευόταν να αναγνωρίσει άτομα των οποίων τα πρόσωπα ήταν καλυμμένα.
Αυτό οδήγησε στην κράτηση και την ανάκριση Παλαιστινίων που είχαν λανθασμένα ταυτοποιηθεί από το σύστημα αναγνώρισης προσώπου.
Το καθεστώς χρησιμοποίησε επίσης τεχνητή νοημοσύνη για την επεξεργασία και τη βελτίωση δεδομένων που είχαν συλλέξει αξιωματούχοι πληροφοριών για μέλη της Hamas.
Πριν από τον πόλεμο, το καθεστώς είχε αναπτύξει έναν αλγόριθμο μηχανικής μάθησης που ονομαζόταν «Lavender», σχεδιασμένο να ταξινομεί γρήγορα δεδομένα και να βοηθά στην ταυτοποίηση χαμηλόβαθμων μαχητών.
Ο αλγόριθμος αυτός είχε εκπαιδευτεί σε μια βάση δεδομένων επιβεβαιωμένων μελών της Hamas και στόχευε να προβλέψει ποιος άλλος θα μπορούσε να συνδέεται με την οργάνωση.
Σύμφωνα με αναφορές, το «Lavender» βοήθησε τον στρατό κατοχής να συντάξει μια λίστα με 37.000 ανθρώπινους στόχους βάσει της σχέσης τους με τη Hamas.
Αν και οι προβλέψεις του συστήματος δεν ήταν αλάνθαστες, το καθεστώς το χρησιμοποίησε στην αρχή του πολέμου της Γάζας για να βοηθήσει στην επιλογή στόχων προς επίθεση.
www.bankingnews.gr
Αυτές οι τεχνολογίες χρησιμοποιήθηκαν για στοχευμένες δολοφονίες διοικητών της Hamas και για την ανάκτηση ομήρων, βελτιούμενες σταδιακά με την πάροδο του χρόνου.
Σύμφωνα με τέσσερις Ισραηλινούς αξιωματούχους, μετά την επίθεση της 7ης Οκτωβρίου στα κατεχόμενα εδάφη —η οποία είχε ως αποτέλεσμα τον θάνατο άνω των 1.200 Ισραηλινών και την αιχμαλωσία 250 ατόμων— οι τεχνολογίες τεχνητής νοημοσύνης εγκρίθηκαν άμεσα για χρήση στο πεδίο.
Όπως ανέφεραν, αυτό οδήγησε σε συνεργασία της Μονάδας 8200 με εφεδρικές δυνάμεις στο «Studio» για την ταχεία ανάπτυξη νέων δυνατοτήτων τεχνητής νοημοσύνης.
Τους τελευταίους 18 μήνες, το κατοχικό καθεστώς συνδύασε την τεχνητή νοημοσύνη με λογισμικό αναγνώρισης προσώπου για την αντιστοίχιση μερικώς καλυμμένων ή τραυματισμένων προσώπων με πραγματικές ταυτότητες.
Επίσης, χρησιμοποίησε την τεχνητή νοημοσύνη για την κατάρτιση λιστών πιθανών στόχων αεροπορικών επιδρομών και ανέπτυξε ένα μοντέλο τεχνητής νοημοσύνης στην αραβική γλώσσα, που τροφοδοτεί ένα chatbot ικανό να σαρώνει και να αναλύει μηνύματα κειμένου, αναρτήσεις στα μέσα κοινωνικής δικτύωσης και άλλα δεδομένα στην αραβική.
Στα τέλη του 2023, το σιωνιστικό καθεστώς επιχειρούσε να δολοφονήσει τον Ibrahim Biari, διοικητή του Κεντρικού Τάγματος της Hamas στην Τζαμπάλια, ο οποίος φερόταν να είχε εμπλακεί στον σχεδιασμό της επίθεσης της 7ης Οκτωβρίου.
Οι στρατιωτικές υπηρεσίες πληροφοριών του καθεστώτος υπέκλεψαν τις επικοινωνίες του Biari με άλλα μέλη της Hamas, αλλά δεν μπόρεσαν να εντοπίσουν με ακρίβεια τη θέση του.
Τότε στράφηκαν σε ένα εργαλείο ανάλυσης ήχου με τεχνητή νοημοσύνη, ικανό να αναλύει διάφορους ήχους, όπως ηχητικά κύματα εκρήξεων και αεροπορικές επιδρομές.
Αφού εντοπίστηκε κατά προσέγγιση η τοποθεσία των επικοινωνιών του Ibrahim Biari, οι στρατιωτικοί αξιωματούχοι του καθεστώτος ενημερώθηκαν ότι η περιοχή —στην οποία περιλαμβάνονταν αρκετά συγκροτήματα διαμερισμάτων— ήταν ιδιαίτερα πυκνοκατοικημένη.
Δήλωσαν ότι, για να διασφαλιστεί ο θάνατος του Biar, έπρεπε να πληγούν πολλά κτίρια στην αεροπορική επιδρομή.
Η επιχείρηση εγκρίθηκε και εκτελέστηκε.
Έκτοτε, οι στρατιωτικές υπηρεσίες πληροφοριών του καθεστώτος χρησιμοποίησαν επίσης αυτό το εργαλείο ήχου -μαζί με χάρτες και εικόνες του περίπλοκου υπόγειου δικτύου σηράγγων της Γάζας- για την αναζήτηση ομήρων.
Σύμφωνα με δύο Ισραηλινούς αξιωματικούς, το εργαλείο έχει βελτιωθεί με την πάροδο του χρόνου, επιτυγχάνοντας μεγαλύτερη ακρίβεια στην ταυτοποίηση ατόμων.
Εντοπισμός της θέσης ατόμων
Σύμφωνα με τρεις καλά πληροφορημένους Ισραηλινούς και Αμερικανούς αξιωματούχους (τα ονόματα των οποίων δεν αποκαλύφθηκαν στην έκθεση), οι Ισραηλινοί αξιωματικοί στράφηκαν σε μια νέα στρατιωτική τεχνολογία, ενσωματωμένη με τεχνητή νοημοσύνη, για την παρακολούθηση των στόχων τους.
Η τεχνολογία αυτή είχε αναπτυχθεί περίπου πριν από μια δεκαετία, αλλά δεν είχε χρησιμοποιηθεί ποτέ στο πεδίο της μάχης.
Η προσπάθεια εντοπισμού του μάρτυρα Ibrahim Biari αποτέλεσε νέα αφορμή για τη βελτίωση του εργαλείου.
Μηχανικοί της Μονάδας 8200 —του ισραηλινού ισοδύναμου της Εθνικής Υπηρεσίας Ασφαλείας των ΗΠΑ— ενσωμάτωσαν ταχύτατα την τεχνητή νοημοσύνη στο σύστημα.
Λίγο αργότερα, οι υπηρεσίες ασφαλείας του καθεστώτος υπέκλεψαν τις τηλεφωνικές κλήσεις του Ibrahim Biari και δοκίμασαν το εργαλείο ανάλυσης ήχου βασισμένο σε τεχνητή νοημοσύνη, το οποίο εντόπισε κατά προσέγγιση τη θέση των επικοινωνιών του.
Με βάση αυτές τις πληροφορίες, το σιωνιστικό καθεστώς διέταξε αεροπορική επιδρομή στην περιοχή στις 31 Οκτωβρίου 2023, που είχε ως αποτέλεσμα τον θάνατο του Ibrahim Biari.
Σύμφωνα με έκθεση της Airwars, μιας λονδρέζικης οργάνωσης παρακολούθησης συγκρούσεων, λόγω της κατά προσέγγιση φύσης του εντοπισμού που παρήγαγε η τεχνητή νοημοσύνη, περισσότεροι από 125 άμαχοι σκοτώθηκαν επίσης στην επίθεση!
Με βάση συνεντεύξεις με εννέα Αμερικανούς και Ισραηλινούς αξιωματούχους άμυνας, το εργαλείο ήχου αποτελεί μόνο ένα παράδειγμα που δείχνει πώς το καθεστώς εκμεταλλεύτηκε τον πόλεμο στη Γάζα για να δοκιμάσει και να αναπτύξει ταχύτατα στρατιωτικές τεχνολογίες υποστηριζόμενες από τεχνητή νοημοσύνη σε πρωτοφανή κλίμακα.
Αντιδράσεις στις θηριωδίες
Πολλές από αυτές τις προσπάθειες προέκυψαν από τη συνεργασία μεταξύ εν ενεργεία στρατιωτών της Μονάδας 8200 και εφέδρων που εργάζονται σε εταιρείες τεχνολογίας όπως η Google, η Microsoft και η Meta.
Σύμφωνα με αυτούς τους ανθρώπους, η Μονάδα 8200 έχει δημιουργήσει έναν κεντρικό κόμβο που ονομάζεται «Studio», ο οποίος λειτουργεί ως κέντρο καινοτομίας και χώρος σύνδεσης ειδικών με έργα τεχνητής νοημοσύνης.
Στη μονάδα αυτή συμμετέχουν έφεδροι από τις προαναφερθείσες μεγάλες εταιρείες. Η κύρια αποστολή του Studio είναι η ταχεία προσαρμογή τεχνολογιών τεχνητής νοημοσύνης στις στρατιωτικές ανάγκες.
Ενώ το καθεστώς συνέχιζε γρήγορα να αναπτύσσει το οπλοστάσιό του σε τεχνητή νοημοσύνη, η χρήση αυτών των τεχνολογιών οδήγησε σε λανθασμένες αναγνωρίσεις, άδικες συλλήψεις και θανάτους αμάχων.
Σύμφωνα με Ευρωπαίους και Αμερικανούς αξιωματούχους άμυνας, καμία άλλη δύναμη δεν υπήρξε τόσο ενεργή όσο το καθεστώς κατοχής στη δοκιμή εργαλείων τεχνητής νοημοσύνης σε πραγματικές μάχες.
Αυτή η κατάσταση παρέχει μια πρώτη εικόνα για το πώς μπορεί να χρησιμοποιηθούν τέτοιες τεχνολογίες σε μελλοντικούς πολέμους, αλλά και μια προειδοποίηση για το πώς μπορούν να δυσλειτουργήσουν ή να κακοποιηθούν, με αποτέλεσμα τη θανάτωση αμάχων.
Η Meta και η Microsoft αρνήθηκαν να σχολιάσουν τις δολοφονίες που πραγματοποιήθηκαν στον πόλεμο της Γάζας με τη χρήση τεχνητής νοημοσύνης, αλλά η Google, σε μια προσπάθεια να απαλλαγεί από τις κατηγορίες, δήλωσε: «Έχουμε υπαλλήλους που υπηρετούν ως έφεδροι για το καθεστώς σε διάφορες χώρες του κόσμου.
Η εργασία που κάνουν αυτοί οι υπάλληλοι ως έφεδροι δεν σχετίζεται με την Google».
Ο Avi Hasson, διευθύνων σύμβουλος της μη κερδοσκοπικής οργάνωσης Startup Nation Central, που συνδέει επενδυτές με εταιρείες στα κατεχόμενα, δήλωσε: «Έφεδροι από τη Meta, την Google και τη Microsoft έχουν παίξει ζωτικό ρόλο στην προώθηση της καινοτομίας στα drones και στην ολοκλήρωση δεδομένων». Πρόσθεσε: «Οι έφεδροι έφεραν εξειδικευμένες γνώσεις και πρόσβαση σε κρίσιμες τεχνολογίες που δεν ήταν διαθέσιμες στον στρατό».
Η Αραβική Γλώσσα: Ένα πεδίο μάχης
Σύμφωνα με τρεις Ισραηλινούς αξιωματικούς, ένα από τα εργαλεία που αναπτύχθηκαν από το «Studio» ήταν ένα μοντέλο τεχνητής νοημοσύνης στην αραβική γλώσσα, ταξινομημένο ως μεγάλο γλωσσικό μοντέλο (LLM).
(Το συγκεκριμένο LLM είχε αναφερθεί προηγουμένως από τον ειδησεογραφικό ιστότοπο +972.)
Οι προγραμματιστές είχαν προηγουμένως αντιμετωπίσει δυσκολίες στη δημιουργία ενός τέτοιου μοντέλου λόγω της έλλειψης επαρκών δεδομένων στην αραβική γλώσσα για την εκπαίδευση της τεχνολογίας.
Ακόμη και όταν υπήρχαν διαθέσιμα δεδομένα, αυτά ήταν κυρίως σε τυπική γραπτή αραβική, η οποία είναι πολύ πιο επίσημη από τις δεκάδες διαφορετικές διαλέκτους της ομιλούμενης αραβικής.
Σύμφωνα με Ισραηλινούς αξιωματικούς, ο στρατός του καθεστώτος κατοχής δεν αντιμετώπισε αυτό το πρόβλημα.
Η παράνομη κυβέρνηση είχε πρόσβαση σε δεκαετίες υποκλαπέντων γραπτών μηνυμάτων, ηχογραφημένων τηλεφωνικών συνομιλιών και αναρτήσεων στα μέσα κοινωνικής δικτύωσης που συλλέχθηκαν σε καθομιλουμένη αραβική.
Ως αποτέλεσμα, στους πρώτους μήνες του πολέμου στη Γάζα, σιωνιστικά στοιχεία ανέπτυξαν το μεγάλο γλωσσικό μοντέλο και σχεδίασαν ένα chatbot ικανό να απαντά σε ερωτήματα στα αραβικά.
Ενσωμάτωσαν αυτό το εργαλείο σε πολυμεσικές βάσεις δεδομένων, επιτρέποντας σε σιωνιστές αναλυτές να πραγματοποιούν πολύπλοκες αναζητήσεις σε εικόνες και βίντεο.
Όταν το σιωνιστικό καθεστώς δολοφόνησε τον Nasralla τον Σεπτέμβριο, το αναπτυγμένο chatbot ανέλυσε τις αντιδράσεις στον αραβόφωνο κόσμο για το μαρτύριό του.
Η τεχνολογία διέκρινε μεταξύ διαφορετικών διαλέκτων εντός του Λιβάνου, ώστε να αξιολογήσει το κοινό αίσθημα και βοήθησε το καθεστώς να διαπιστώσει εάν υπήρχε πίεση από την κοινή γνώμη για την πραγματοποίηση αντίποινων.
Αναφέρεται επίσης ότι, κατά καιρούς, το chatbot δεν μπορούσε να αναγνωρίσει ορισμένους σύγχρονους αργκό όρους ή λέξεις που είχαν μεταγραφεί φωνητικά από τα αγγλικά στα αραβικά.
Ένας από τους αξιωματικούς δήλωσε ότι αυτό απαιτούσε από Ισραηλινούς αξιωματικούς πληροφοριών, εξειδικευμένους σε διάφορες διαλέκτους, να ελέγχουν και να διορθώνουν τα αποτελέσματα.
Το chatbot παρήγαγε επίσης κατά καιρούς λανθασμένα αποτελέσματα.
Για παράδειγμα, αντί να εμφανίσει μια εικόνα όπλου, παρουσίαζε μια φωτογραφία σωλήνα.
Παρ’ όλα αυτά, ανέφεραν ότι το εργαλείο τεχνητής νοημοσύνης επιτάχυνε σημαντικά τη διαδικασία έρευνας και ανάλυσης.
Αναγνώριση προσώπου και Ταυτοποίηση
Σε προσωρινά σημεία ελέγχου που στήθηκαν μεταξύ της βόρειας και της νότιας Γάζας μετά τις επιθέσεις της 7ης Οκτωβρίου, το καθεστώς χρησιμοποίησε επίσης κάμερες ικανές να καταγράφουν εικόνες υψηλής ανάλυσης Παλαιστινίων και να τις αποστέλλουν σε ένα σύστημα αναγνώρισης προσώπου βασισμένο σε τεχνητή νοημοσύνη.
Σύμφωνα με δύο αξιωματικούς πληροφοριών του καθεστώτος, το σύστημα μερικές φορές δυσκολευόταν να αναγνωρίσει άτομα των οποίων τα πρόσωπα ήταν καλυμμένα.
Αυτό οδήγησε στην κράτηση και την ανάκριση Παλαιστινίων που είχαν λανθασμένα ταυτοποιηθεί από το σύστημα αναγνώρισης προσώπου.
Το καθεστώς χρησιμοποίησε επίσης τεχνητή νοημοσύνη για την επεξεργασία και τη βελτίωση δεδομένων που είχαν συλλέξει αξιωματούχοι πληροφοριών για μέλη της Hamas.
Πριν από τον πόλεμο, το καθεστώς είχε αναπτύξει έναν αλγόριθμο μηχανικής μάθησης που ονομαζόταν «Lavender», σχεδιασμένο να ταξινομεί γρήγορα δεδομένα και να βοηθά στην ταυτοποίηση χαμηλόβαθμων μαχητών.
Ο αλγόριθμος αυτός είχε εκπαιδευτεί σε μια βάση δεδομένων επιβεβαιωμένων μελών της Hamas και στόχευε να προβλέψει ποιος άλλος θα μπορούσε να συνδέεται με την οργάνωση.
Σύμφωνα με αναφορές, το «Lavender» βοήθησε τον στρατό κατοχής να συντάξει μια λίστα με 37.000 ανθρώπινους στόχους βάσει της σχέσης τους με τη Hamas.
Αν και οι προβλέψεις του συστήματος δεν ήταν αλάνθαστες, το καθεστώς το χρησιμοποίησε στην αρχή του πολέμου της Γάζας για να βοηθήσει στην επιλογή στόχων προς επίθεση.
www.bankingnews.gr
Σχόλια αναγνωστών