Η Γάζα ήταν το «πειραματόζωο» για τον πόλεμο στο Ιράν: Πώς το Ισραήλ επιτίθεται σε «τυφλούς» βαλλιστικούς στόχους μέσω ΑΙ
NewsroomΜετά την πρωτοφανή χρήση Τεχνητής Νοημοσύνης από το Ισραήλ για την επιλογή στόχων βομβαρδισμού στη Λωρίδα της Γάζας, ειδικοί κρούουν τώρα τον κώδωνα του κινδύνου για αυτό που ένας αναλυτής χαρακτήρισε την Πέμπτη (5/3) ως έλλειψη ανθρώπινης επίβλεψης στη χρήση ισραηλινής τεχνητής νοημοσύνης για στόχευση στο Ιράν.
«Οι ομοιότητες ανάμεσα στους βομβαρδισμούς του Ισραήλ στη Γάζα και στην Τεχεράνη γίνονται όλο και πιο έντονες», δήλωσε ο Τρίτα Παρσί, εκτελεστικός αντιπρόεδρος του Ινστιτούτου για Υπεύθυνη Κρατική Πολιτική του Κουίνσι. «Και στις δύο περιπτώσεις φαίνεται ότι το Ισραήλ χρησιμοποιεί τεχνητή νοημοσύνη χωρίς καμία ανθρώπινη επίβλεψη».
«Για παράδειγμα, το Ισραήλ βομβάρδισε ένα πάρκο στην Τεχεράνη που ονομάζεται “Πάρκο της Αστυνομίας”», πρόσθεσε ο Παρσί. «Δεν έχει καμία σχέση με την αστυνομία. Αλλά φαίνεται ότι η τεχνητή νοημοσύνη το αναγνώρισε ως στόχο, επειδή το Ισραήλ βομβαρδίζει όλα τα κτίρια που σχετίζονται με την κυβέρνηση. Κανείς στο Ισραήλ δεν μπήκε στον κόπο να ελέγξει ότι πρόκειται απλώς για ένα πάρκο».
Δανειζόμενος όρους από τη γλώσσα των startups, ο δημοσιογράφος τεχνολογίας Τζέικομπ Γουόρντ χαρακτηρίζει τη χρήση και εξαγωγή τεχνολογίας τεχνητής νοημοσύνης από το Ισραήλ στη μετα-Γάζα εποχή ως «θανατηφόρο beta». «Η Γάζα ήταν το πρωτότυπο», εξήγησε ο Γουόρντ σε βίντεο που δημοσίευσε αυτή την εβδομάδα στο Bluesky. «Το Ιράν είναι η επίσημη έναρξη. Πρόκειται για ένα εργαστηριακό πείραμα με πραγματικά πυρά και πραγματικά όπλα πάνω σε ανθρώπους, που σκοτώνει ανθρώπους και δημιουργεί μια αλυσίδα εξαγώγιμων προϊόντων για τον υπόλοιπο κόσμο. Έχει γίνει μια μεγάλη βιομηχανία στο Ισραήλ — και είναι κάτι με το οποίο και στις ΗΠΑ ασχολούμαστε και συνεργαζόμαστε εδώ και αρκετό καιρό».
Η χρήση ΑΙ στην περίπτωση της Γάζας
Προηγούμενες έρευνες έχουν δείξει πώς οι ισραηλινές ένοπλες δυνάμεις (IDF) χρησιμοποιούν το Habsora, ένα ισραηλινό σύστημα τεχνητής νοημοσύνης που μπορεί να επιλέγει αυτόματα στόχους αεροπορικών επιδρομών με εκθετικά ταχύτερο ρυθμό από ποτέ. Μία πηγή των ισραηλινών μυστικών υπηρεσιών υποστήριξε ότι η τεχνολογία αυτή έχει μετατρέψει τον στρατό σε ένα «εργοστάσιο μαζικών δολοφονιών», όπου «η έμφαση δίνεται στην ποσότητα και όχι στην ποιότητα των σκοτωμών».
Τα λάθη ήταν σχεδόν αναπόφευκτα, αλλά οι επικριτές υποστηρίζουν ότι η ισραηλινή πολιτική έκανε την κατάσταση ακόμη χειρότερη. Στις τεταμένες ώρες μετά την επίθεση της Χαμάς στις 7 Οκτωβρίου 2023, αξιωματικοί μεσαίου βαθμού των IDF απέκτησαν την εξουσία να διατάσσουν επιθέσεις όχι μόνο εναντίον ανώτερων διοικητών της Χαμάς αλλά και εναντίον οποιουδήποτε μαχητή, ακόμη και χαμηλόβαθμου.
Σύμφωνα με έρευνα των New York Times, στους αξιωματικούς επιτρεπόταν επίσης να ρισκάρουν έως και 20 ζωές αμάχων σε κάθε αεροπορική επιδρομή, και έως 500 ζωές αμάχων την ημέρα. Ακόμη και αυτό το όριο καταργήθηκε μετά από λίγες ημέρες. Οι αξιωματικοί μπορούσαν να διατάσσουν όσες επιθέσεις θεωρούσαν νόμιμες, χωρίς περιορισμούς στις απώλειες αμάχων. Ανώτεροι διοικητές των IDF ενέκριναν μερικές φορές επιθέσεις που γνώριζαν ότι θα μπορούσαν να σκοτώσουν πάνω από 100 αμάχους, αν ο στόχος θεωρούνταν ιδιαίτερα σημαντικός.
Σε μια αεροπορική επιδρομή με τη βοήθεια τεχνητής νοημοσύνης που στόχευε έναν ανώτερο διοικητή της Χαμάς, ο ισραηλινός στρατός έριξε πολλαπλές βόμβες 2.000 λιβρών, προμήθειας ΗΠΑ, που μπορούν να ισοπεδώσουν ολόκληρο οικοδομικό τετράγωνο, στον προσφυγικό καταυλισμό Τζαμπάλια τον Οκτώβριο του 2023. Ο βομβαρδισμός αυτός σκότωσε τουλάχιστον 126 ανθρώπους, εκ των οποίων 68 παιδιά, και τραυμάτισε 280 άλλους. Η Χαμάς δήλωσε ότι τέσσερις Ισραηλινοί και τρεις διεθνείς όμηροι σκοτώθηκαν επίσης στην επίθεση.
Η χρήση ΑΙ από τις ΗΠΑ και η ρήξη με τις εταιρείες
Η Washington Post ανέφερε την Τετάρτη (5/3) ότι ο αμερικανικός στρατός στο Ιράν έχει χρησιμοποιήσει την πιο προηγμένη τεχνητή νοημοσύνη που έχει χρησιμοποιηθεί ποτέ σε πόλεμο, ένα εργαλείο που μπορεί να είναι δύσκολο να εγκαταλείψει το Πεντάγωνο ακόμη κι αν διακόψει τις σχέσεις με την εταιρεία που το δημιούργησε. Σύμφωνα με την εφημερίδα, το Maven Smart System της εταιρείας Palantir — που περιλαμβάνει το γλωσσικό μοντέλο τεχνητής νοημοσύνης Claude AI της εταιρείας Anthropic — βοήθησε τους Αμερικανούς διοικητές να επιλέξουν 1.000 ιρανικούς στόχους μέσα στις πρώτες 24 ώρες του πολέμου.
Οι ειδικοί ζητούν μια πιο προσεκτική προσέγγιση στη χρήση στρατιωτικής τεχνητής νοημοσύνης. Ο Πολ Σαρ, εκτελεστικός αντιπρόεδρος στο Κέντρο για μια Νέα Αμερικανική Ασφάλεια, δήλωσε στην Washington Post: «Η τεχνητή νοημοσύνη κάνει λάθη... Πρέπει οι άνθρωποι να ελέγχουν τα αποτελέσματα της τεχνητής νοημοσύνης όταν διακυβεύονται ζωές».
Δεν είναι δημόσια γνωστό αν χρησιμοποιήθηκε τεχνητή νοημοσύνη σε κάποιες από τις πιο θανατηφόρες σφαγές του τρέχοντος πολέμου στο Ιράν, ο οποίος έχει αφήσει πάνω από 1.000 νεκρούς Ιρανούς, ανάμεσά τους περίπου 175 παιδιά. Μεταξύ αυτών ήταν και θύματα μιας επίθεσης «διπλού χτυπήματος» σε σχολείο θηλέων το περασμένο Σάββατο (28/2) στη νότια πόλη Μινάμπ.
Την περασμένη εβδομάδα, ο Ντόναλντ Τραμπ διέταξε όλες τις ομοσπονδιακές υπηρεσίες — συμπεριλαμβανομένου του Υπουργείου Άμυνας — να σταματήσουν τη χρήση προϊόντων της εταιρείας Anthropic. Η απόφαση αυτή φαίνεται να ήταν αντίποινα επειδή η εταιρεία με έδρα το Σαν Φρανσίσκο αρνήθηκε να επιτρέψει απεριόριστη κυβερνητική και στρατιωτική χρήση της τεχνολογίας της, φοβούμενη ότι θα μπορούσε να χρησιμοποιηθεί για μαζική παρακολούθηση των Αμερικανών και για αυτόματα οπλικά συστήματα, γνωστά και ως «δολοφονικά ρομπότ». Ο Τραμπ έδωσε στο Πεντάγωνο έξι μήνες για να καταργήσει σταδιακά τα προϊόντα της Anthropic, επιτρέποντας προσωρινά τη χρήση τους στον πόλεμο με το Ιράν μέχρι να βρεθούν εναλλακτικές λύσεις.
Το αδηφάγο πρότζεκτ πολεμικού ΑΙ του Ισραήλ και οι κινήσεις του ΟΗΕ
Το Project Nimbus — ένα συμβόλαιο 1,2 δισεκατομμυρίων δολαρίων για υπολογιστικό νέφος (cloud computing) και τεχνητή νοημοσύνη που υπογράφηκε το 2021 μεταξύ της ισραηλινής κυβέρνησης και των εταιρειών Amazon Web Services και Google Cloud — παρέχει υποδομές cloud, εργαλεία τεχνητής νοημοσύνης και αποθήκευση δεδομένων στους IDF και σε άλλες υπηρεσίες. Η συμφωνία απαγορεύει στην Google ή στην Amazon να αρνηθούν υπηρεσίες σε ισραηλινές κυβερνητικές, στρατιωτικές ή μυστικές υπηρεσίες.
Ακαδημαϊκοί και νομικοί συγκεντρώνονται αυτή την εβδομάδα στη Γενεύη της Ελβετίας για μια διάσκεψη υπό την αιγίδα του ΟΗΕ σχετικά με τα αυτόνομα φονικά οπλικά συστήματα. Οι συμμετέχοντες εξετάζουν τους κινδύνους από τα λεγόμενα «δολοφονικά ρομπότ», τα οποία μπορούν να επιλέγουν και να πλήττουν στόχους χωρίς ουσιαστικό ανθρώπινο έλεγχο. Μελετούν επίσης τις νομικές, στρατιωτικές και τεχνολογικές συνέπειες των αυτόνομων οπλικών συστημάτων και προσπαθούν να δημιουργήσουν διεθνή συναίνεση για τη ρύθμισή τους.
«Η τρέχουσα αποτυχία να ρυθμιστεί η πολεμική χρήση της τεχνητής νοημοσύνης — ή έστω να παγώσει η χρήση της μέχρι να υπάρξει συμφωνία για τη νόμιμη χρήση — φαίνεται να υποδηλώνει ότι η εξάπλωση αυτού του είδους πολέμου είναι άμεση», δήλωσε στο Common Dreams ο Κρεγκ Τζόουνς, πολιτικός γεωγράφος στο Πανεπιστήμιο του Νιούκασλ στην Αγγλία. Παρότι ορισμένοι υποστηρικτές των οπλικών συστημάτων τεχνητής νοημοσύνης ισχυρίζονται ότι η χρήση τους θα μειώσει τις απώλειες αμάχων, ο Τζόουνς τόνισε: «Δεν υπάρχει καμία απόδειξη ότι η τεχνητή νοημοσύνη μειώνει τους θανάτους αμάχων ή τα λάθη στην επιλογή στόχων — και μπορεί να ισχύει το ακριβώς αντίθετο».
- Η Γάζα ήταν το «πειραματόζωο» για τον πόλεμο στο Ιράν: Πώς το Ισραήλ επιτίθεται σε «τυφλούς» βαλλιστικούς στόχους μέσω ΑΙ
- Η στιγμή της ελεγχόμενης έκρηξης έξω από τη ΓΑΔΑ: Με χειροβομβίδες ο άνδρας, πώς τον συνέλαβαν
- Τι συνέβη όταν 16χρονη πήγε στην Τουρκία για να βάλει μαλλιά - Το αποτέλεσμα μετά από έναν χρόνο
- Πώς ένα μικροσκοπικό κομμάτι βρύου έλυσε έγκλημα δεκαετιών στις ΗΠΑ - Η κινηματογραφική εξιχνίαση