Πώς το Ισραήλ έκανε τους αμάχους στη Γάζα στόχο της τεχνητής νοημοσύνης
Πώς οι άμαχοι γίνονται ευκολότερα στόχος με τη βοήθεια της AI
Δημοσίευση 30/12/2024 | 12:19
Το Ισραήλ ανέπτυξε ένα σύστημα αναγνώρισης στόχων στη Γάζα που βασιζόταν σε τεχνητή νοημοσύνη, αυξάνοντας έτσι σημαντικά τον αριθμό των απωλειών μεταξύ αμάχων στον παλαιστινιακό θύλακα, σύμφωνα με έρευνα της Washington Post.
Περισσότεροι από 45.000 άνθρωποι έχουν σκοτωθεί τους τελευταίους 15 μήνες στη Γάζα, με το 70% των νεκρών να είναι γυναικόπαιδα.
Η στρατηγική του Ισραήλ απέναντι στον παλαιστινιακό πληθυσμό έχει πάρει χαρακτηριστικά γενοκτονίας σύμφωνα με το Διεθνές Δικαστήριο Δικαιοσύνης, ενώ το Διεθνές Ποινικό Δικαστήριο έχει εκδώσει εντάλματα σύλληψης κατά του Μπενιαμίν Νετανιάχου και του πρώην υπουργού Άμυνας, Γιόαβ Γκάλαντ για εγκλήματα πολέμου και εγκλήματα κατά της ανθρωπότητας.
Η αξιοποίηση της τεχνητής νοημοσύνης από το Ισραήλ φαίνεται να ταιριάζει σε αυτή τη στρατηγική καθώς ο νέος τρόπος πολέμου έχει συμβάλει σημαντικά στον μεγάλο αριθμό θανάτων σε αμάχους.
Ενδεικτικό είναι ότι ισραηλινές πηγές που επικαλείται η αμερικανική εφημερίδα αναφέρουν ότι η εκτεταμένη χρήση συστημάτων που βασίζονται στην τεχνητή νοημοσύνη από τις IDF έχει οδηγήσει σε μαζικές απώλειες, πολύ περισσότερες συγκριτικά με άλλες συγκρούσεις.
Η έρευνα βασίστηκε σε συνεντεύξεις με περισσότερες από δέκα πηγές που γνωρίζουν τη λειτουργία των σχετικών συστημάτων, καθώς και σε έγγραφα που περιήλθαν στην κατοχή της η Washington Post.
Οι IDF από τη μεριά τους δήλωσαν ότι οι ισχυρισμοί της έρευνας ήταν ψευδείς και ισχυρίστηκαν ότι το σύστημα τεχνητής νοημοσύνης ελαχιστοποίησε τις απώλειες αμάχων.
Αλίευση στόχων από τη θολή δεξαμενή της τεχνητής νοημοσύνης
Σε ένα εκτενές ρεπορτάζ η WP παρουσιάζει λεπτομέρειες για τη λειτουργία αυτών των συστημάτων ΑΙ στον πόλεμο στη Γάζα αλλά και την αντίδραση αξιωματούχων που διαπίστωσαν ότι η τεχνητή νοημοσύνη δεν επαρκεί για να δώσει σαφείς και ακριβείς πληροφορίες, με κάποιους μάλιστα να αποδίδουν την αποτυχία της 7ης Οκτωβρίου ακριβώς στην κυριαρχία της νέας τεχνολογίας στη λήψη αποφάσεων.
Η συγκεκριμένη τεχνολογία αναπτύσσεται εδώ και μία δεκαετία στον ισραηλινό στρατό και επέδρασσε στο να γίνει ο πόλεμος στη Γάζα πιο βίαιος, αναφέρει η εφημερίδα.
Ένα από τα κομβικά σημεία που χρησιμοποιήθηκε η τεχνητή νοημοσύνη ήταν η επιλογή στόχων. Έχοντας στη διάθεσή τους πληροφορίες για στόχους της Χαμάς οι IDF ξεκίνησαν τους βομβαρδισμούς στις 7 Οκτωβρίου του 2023.
Μετά από λίγο όμως οι στόχοι αυτοί εξαντλούνταν. Για να διατηρήσουν τον ιλιγγιώδη ρυθμό του πολέμου, οι IDF στράφηκαν σε ένα περίτεχνο εργαλείο τεχνητής νοημοσύνης που ονομάζεται Habsora – ή «το Ευαγγέλιο» – το οποίο μπορούσε να δημιουργήσει γρήγορα εκατοντάδες επιπλέον στόχους, στόχους που πολλές φορές επιλέγονταν σχεδόν τυχαία.
Για παράδειγμα οι μαχητές της Χαμάς χρησιμοποιούσαν την κωδική λέξη «καρπούζι» σε συνομιλίες τους για να περιγράψουν κάποιο χτύπημα. Τα εργαλεία τεχνητής νοημοσύνης έχουν καταχωρήσει τη λέξη ως επικίνδυνη, αλλά δεν μπορούν να ξεχωρίσουν αν αυτή χρησιμοποιείται από κάποιους επειδή είναι μαχητές ή από κάποιους άσχετους που απλώς μιλούν για ένα πραγματικό καρπούζι.
Το Lavender, είναι επίσης ένα αλγοριθμικό πρόγραμμα που αναπτύχθηκε το 2020, και μελετούσε δεδομένα για να δημιουργήσει καταλόγους πιθανών μαχητών της Χαμάς και της Ισλαμικής Τζιχάντ, δίνοντας σε κάθε άτομο μια βαθμολογία που εκτιμούσε την πιθανότητα να είναι μέλος, δήλωσαν στην Post τρία άτομα με γνώση του θέματος.
Οι παράγοντες που θα μπορούσαν να αυξήσουν τη βαθμολογία ενός ατόμου περιλάμβαναν το να είναι σε μια ομάδα WhatsApp με έναν γνωστό μαχητή, να αλλάζει συχνά διευθύνσεις και αριθμούς τηλεφώνου ή να κατονομάζεται σε αρχεία της Χαμάς, είπαν οι άνθρωποι.
Με βάση παρόμοια εργαλεία οι IDF μπορούν να προβλέπουν πόσοι άμαχοι θα σκοτωθούν από μια βομβιστική επιδρομή. Αξίζει να σημειωθεί ότι το 2014 η αποδεκτή αναλογία απωλειών αμάχων από τις IDF ήταν ένας πολίτης για έναν «υψηλόβαθμο τρομοκράτη», δήλωσε ο Tal Mimran, πρώην νομικός σύμβουλος των IDF.
Ο «επιτρεπτός» αριθμός αμάχων που μπορείς να σκοτώσεις
Στον πόλεμο της Γάζας, ο αριθμός αυξήθηκε σε περίπου 15 αμάχους για ένα χαμηλόβαθμο μέλος της Χαμάς και «εκθετικά υψηλότερος» για μεσαίου και υψηλού επιπέδου μέλη», σύμφωνα με την ισραηλινή οργάνωση ανθρωπίνων δικαιωμάτων Breaking the Silence, που επικαλείται πολυάριθμες μαρτυρίες στρατιωτών των IDF. Οι New York Times ανέφεραν νωρίτερα αυτή την εβδομάδα ότι ο σχετικός αριθμός των αμάχων που «επιτρέπεται να σκοτώσεις» αυξήθηκε σε 20 προς 1.
Το 2023, ο μόλις συνταξιοδοτηθείς αρχηγός του επιτελείου του στρατού, Kohavi, καυχιόταν σε μέσο ενημέρωσης ότι τα νέα συστήματα τεχνητής νοημοσύνης έδιναν στις IDF έναν εξελιγμένο μηχανισμό νοημοσύνης σε πραγματικό χρόνο «παρόμοιο με την ταινία “The Matrix”».
Πριν από το «Ευαγγέλιο», οι αναλυτές μπορούσαν να παράγουν 50 νέους στόχους στη Γάζα ετησίως για να τους βάλουν στην τράπεζα στόχων. «Μόλις η μηχανή ενεργοποιήθηκε», είπε, παρήγαγε 100 στόχους την ημέρα.
Οι στόχοι αυτοί συλλέγονταν με τρόπους ανάλογους με αυτούς που αναφέραμε παραπάνω.
Η εμπειρία επίσης του πολέμου έχει δείξει ότι οι IDF έχουν σημειώσει ρεκόρ θανάτων αμάχων Παλαιστίνιων αλλά δεν έχουν καταφέρει παρά την προηγμένη τεχνολογία να εντοπίσουν την πλειοψηφία των ομήρων ενώ η δολοφονία του Γιαχία Σινουάρ, του πλέον καταζητούμενου από το Ισραήλ, έγινε σε τυχαία συνάντηση καθώς ο στρατός δεν ήξερε πού βρισκόταν.