(Domenica 7 aprile 2024) – La recente inchiesta congiunta condotta da +972 Magazine e Local Call ha portato alla luce l’utilizzo di sistemi di intelligenza artificiale (IA) da parte dell’esercito israeliano per identificare i palestinesi da colpire durante l’assalto alla Striscia di Gaza. Secondo le rivelazioni, un software chiamato “Lavender” ha giocato un ruolo chiave nell’automatizzare e sistematizzare le decisioni sui bersagli da attaccare, basandosi su una rapida valutazione dell’affiliazione delle persone ai movimenti di resistenza armata palestinese. La macchina, una volta identificato un individuo come affiliato, permette di procedere all’uccisione senza ulteriori verifiche da parte umana, trasformando in pratica i soldati in mera esecuzione delle decisioni prese dall’IA.
di Davide Lettera
Il sistema “Lavender” è descritto come progettato per classificare rapidamente gli individui, fornendo un punteggio che indica la probabilità di affiliazione a gruppi armati come Hamas o la Jihad islamica palestinese (PIJ). Questa valutazione si basa su una vasta gamma di dati raccolti attraverso sistemi di sorveglianza, compresi segnali visivi, comunicazioni cellulari, attività sui social media, e altro ancora. Ciò che rende particolarmente controverso l’uso di “Lavender” è la sua capacità di generare automaticamente liste di migliaia di palestinesi considerati come potenziali militanti, basandosi su algoritmi che imparano dai dati di addestramento inseriti dagli operatori. Durante le prime settimane di guerra, l’esercito israeliano si sarebbe affidato quasi esclusivamente a questo sistema per identificare 37.000 persone come bersagli.
Parallelamente, un altro software di IA, denominato “Habsora” (Il Vangelo), contribuisce a designare automaticamente gli obiettivi fisici da colpire, inclusi edifici e abitazioni. L’integrazione di “Habsora” con “Lavender” ha portato a un notevole aumento del numero di attacchi, causando vasta distruzione e perdite civili. Questa metodologia ha sollevato preoccupazioni significative in merito alla legalità e all’etica delle uccisioni basate su decisioni automatizzate, dove l’intervento umano è ridotto a un mero “timbro di gomma” per le scelte operate dall’IA, spesso dedicate solo 20 secondi per l’approvazione finale di ciascun bersaglio.
L’inchiesta ha anche evidenziato come “Lavender” e “Habsora” rappresentino una vera e propria “fabbrica di omicidi di massa”, descrizione fornita da un ex ufficiale dell’intelligence. L’impatto di queste tecnologie va ben oltre la mera questione dell’efficienza bellica, aprendo interrogativi profondi sull’affidabilità dei dati che alimentano gli algoritmi, sul rischio di pregiudizi incorporati nei sistemi di IA, e sulla crescente deresponsabilizzazione umana nelle operazioni militari.
Importanti sono le implicazioni legali e morali di questo approccio. La condanna a morte di individui e, in alcuni casi, delle loro famiglie, sulla base di probabilità generate da un algoritmo, solleva questioni inquietanti sulla violazione dei diritti umani e del diritto internazionale. Inoltre, la distinzione tra combattenti e non combattenti, un pilastro delle leggi di guerra, rischia di essere erosa dall’impiego di queste tecnologie.
L’uso dell’IA in contesti di conflitto, come illustrato dall’inchiesta, pone dunque sfide etiche e legali inedite, richiedendo una riflessione critica sull’evoluzione della guerra moderna e sul ruolo delle tecnologie emergenti in tale contesto. La rivelazione di queste pratiche da parte delle testate giornalistiche indipendenti israeliane segna un momento cruciale nel dibattito pubblico, ponendo le basi per un’indispensabile discussione sulla regolamentazione e il controllo dell’uso dell’intelligenza artificiale nelle operazioni militari e sulle sue conseguenze sulla vita umana.
Last modified: Aprile 7, 2024