Alla vigilia del secondo anniversario dell'invasione dell'Ucraina da parte di Mosca, il 24 febbraio 2022, la Missione di monitoraggio dei diritti umani delle Nazioni Unite in Ucraina (HRMMU) ha pubblicato un rapporto che include dati su quello che ha definito il “costo umano” della guerra: 30.457 vittime civili, 10.582 morti, 19.875 feriti. Tra le vittime civili del conflitto, 587 bambini sono stati uccisi e 1.298 feriti.
I dati diffusi a metà marzo da Philippe Lazzarini, capo dell'Agenzia delle Nazioni Unite per il soccorso e l'occupazione (UNRWA) (l'agenzia delle Nazioni Unite che fornisce aiuti ai rifugiati palestinesi), indicano che nella Striscia di Gaza in soli cinque mesi sono stati uccisi 12.300 bambini. Il numero di bambini morti durante l’assedio di Israele è maggiore del numero di bambini morti in tutte le guerre a cui il mondo ha assistito negli ultimi quattro anni.
Il documento dell’Unità di gestione delle risorse umane dell’Ucraina rileva inoltre che il numero di vittime civili in Ucraina “è stato particolarmente elevato durante i primi mesi successivi all’attacco armato su larga scala, con migliaia di civili uccisi e feriti ogni mese”, con numeri in calo nel 2022 e 2023. . Una media di 163 civili sono stati uccisi e 547 feriti al mese nel 2023. Cifre spesso raggiunte in una sola notte di bombardamenti nei territori palestinesi assediati dalle forze israeliane.
Considerati questi numeri, la domanda rimane: mancanza di controllo o intenzionalità da parte delle Forze di Difesa Israeliane (IDF – Israel Defense Forces nel suo acronimo originale)? La risposta potrebbe in parte risiedere nel sistema Lavender, la tecnologia di intelligenza artificiale utilizzata dagli israeliani per pianificare attacchi contro i membri di Hamas. In generale, il sistema analizza la situazione e calcola la fattibilità degli attacchi con l'obiettivo di eliminare i militanti, tenendo conto delle ipotesi su quello che può essere considerato un numero accettabile di vittime civili. Questa equazione volatile, secondo stime più elevate, potrebbe o meno dare il via libera a un attacco con un numero predeterminato di vittime collaterali.
indagine quale custode Il giornalista arabo-israeliano Yuval Abraham ha avuto accesso alla rivista +972 E il Chiamata localeUn sito di notizie indipendente con sede a Tel Aviv ha raccolto le testimonianze di sei ufficiali dell'intelligence militare israeliana che hanno partecipato all'identificazione degli obiettivi di Hamas e della Jihad islamica in questo attacco alla Striscia di Gaza utilizzando la tecnologia dell'intelligenza artificiale.
Secondo questi funzionari. Le risorse IA, in particolare il sistema Lavender, hanno svolto un ruolo cruciale nel contesto dell’offensiva dell’IDF dimostrando una grande capacità di individuare rapidamente potenziali militanti nell’area, rendendoli bersagli per il loro abbattimento. Secondo quanto riferito, Lavender aveva una base di 37.000 potenziali bersagli di palestinesi con legami con Hamas o con la Jihad islamica.
Non siamo qui per affrontare A come operare Abbastanza nuovo, poiché nel 2021 le forze israeliane hanno ammesso di utilizzare l’intelligenza artificiale come strumento di guerra. All'epoca si diceva che la guerra degli 11 giorni di quell'anno nella Striscia di Gaza sarebbe stata la prima “guerra AI” al mondo. Erano già in gioco il tempo necessario per prendere decisioni e il numero limitato di persone che eseguivano missioni di combattimento a distanza: “Ciò che prima richiedeva ore, ora richiede minuti, con qualche minuto in più per l’analisi umana”, ha spiegato un ufficiale a capo dell’unità di trasformazione digitale di Tsahal.
Molti funzionari hanno sottolineato che il regime, a tre anni dall’attuale conflitto nella Striscia di Gaza, è progettato per una guerra totale.
Crediamo nella freddezza dell'algoritmo
Secondo gli ufficiali intervistati da Yuval Abraham, durante le prime settimane – addirittura i primi mesi – dell'attacco alla Striscia di Gaza, c'era una sorta di via libera all'uccisione, provocando un numero molto elevato di vittime civili.
Ma ricorrendo all’analisi algoritmica, le forze israeliane potrebbero calpestare i fondamenti morali e giuridici emessi dalle organizzazioni internazionali per regolare i (potenziali) conflitti armati. In un certo senso si è trattato di un trasferimento di responsabilità dall’uomo alla macchina che, come dice una delle fonti di Yuval Abraham, “ha reso tutto più semplice”.
“Questo non ha eguali e non è mai stato visto prima”, ha detto un ufficiale che ha utilizzato Lavender, spiegando che le squadre avevano più fiducia nel “meccanismo statistico” che nel soldato che ha perso una persona in un attacco di Hamas: “Tutti lì, e anch'io ho perso.” “La gente del 7 ottobre. La macchina ha deciso con freddezza. Questo ha reso tutto più facile.”
Un’altra fonte che ha utilizzato il programma di intelligenza artificiale ha anche chiesto se la prestazione degli esseri umani nel processo di presa di mira di Hamas fosse abbastanza grande da concludere che Hamas stessa “ha investito 20 secondi in ciascun obiettivo a questo punto, e sta eseguendo dozzine di queste azioni ogni giorno”. .” Non avevo alcun valore da aggiungere come essere umano se non quello di essere un timbro di approvazione. Ciò ha permesso di risparmiare molto tempo.”
Crediamo nella freddezza dell'algoritmo Potrebbe essere il motto dell'IDF in questo momento. Lavender, secondo le testimonianze, aveva una maggiore capacità decisionale rispetto ai comandanti responsabili delle operazioni. E il Stupide bombeHa utilizzato munizioni non guidate per distruggere l'obiettivo e tutto ciò che lo circondava, e ha fatto il resto, distruggendo intere residenze e uccidendo tutti i loro occupanti.
Uno degli agenti intervistati da Yuval Abraham ha anche spiegato che se il sospettato era un potenziale attivista di base, di Hamas o della Jihad, la preferenza era attaccare quando si pensava che fossero a casa: “Non eravamo interessati ad ucciderli”. Armati solo quando si trovano su installazioni militari o partecipano ad attività militari. È molto più facile bombardare una casa di famiglia. Il sistema è costruito per cercarli in queste condizioni.
risoluzione. Prima la macchina, poi l'uomo
La decisione iniziale sarà quindi lasciata nelle mani della macchina Lavender, un sistema sviluppato dall'Unità 8200, la divisione di intelligence d'élite dell'IDF, l'equivalente della National Security Agency negli Stati Uniti. Il via libera al lancio dell’attacco dipenderebbe quindi da criteri predeterminati per il numero accettabile di vittime collaterali che, come mostrano i numeri, erano di ampia portata.
Questo numero accettabile di vittime civili è variato nel corso dei sei mesi di guerra. Secondo due fonti investigative, nelle prime settimane del conflitto, tra i 15 ei 20 civili sarebbero stati uccisi in attacchi contro Hamas o combattenti della Jihad islamica. Attacchi in cui sono state utilizzate le suddette “bombe stupide”. La priorità in quel momento era accelerare il processo di bombardamento, cioè rendere la macchina capace di produrre un numero enorme di bersagli.
La lavanda ha risposto bene a questa nuova priorità, andando oltre, secondo custodeLe azioni che hanno portato a questa guerra sono passate attraverso un processo burocratico che includeva discussioni prima che una decisione fosse presa da un consulente legale.
Dopo il 7 ottobre, e motivato da un desiderio di vendetta – come ha riferito una fonte investigativa – il modello di approvazione degli attacchi contro obiettivi umani ha subito una notevole accelerazione.con i leader che chiedono un flusso costante di potenziali figure per Hamas e Jihad.
“Eravamo sotto costante pressione: 'Portateci più obiettivi'. Ci hanno urlato contro”, ha detto un ufficiale. “Ci hanno detto: dobbiamo uccidere Hamas, qualunque sia il costo. Bombardatelo qualunque cosa potete.”
In questo nuovo contesto, le forze sul terreno hanno iniziato a fare sempre più affidamento sul sistema Lavender per generare obiettivi potenzialmente collegati ad Hamas. Ritenendo che l’algoritmo raggiungesse una precisione del 90% nell’analisi dei profili sospetti, l’esercito ha finito per raccomandarne l’uso sul campo di battaglia.
Questa opzione sarebbe stata anche, secondo una delle fonti ascoltate dall'inchiesta, un sollievo per l'IDF al fine di liberarsi da ogni senso di colpa per aver preso una decisione sbagliata inserendo potenziali errori di valutazione nella fattura del dispositivo, che potrebbero anche avere equivaleva ad un errore nella valutazione. Una giustificazione per una guerra fatta di attacchi che appaiono incontrollabili – nel senso che non sono stati diretti contro obiettivi specifici e in modo specifico – e che causano un numero così elevato di vittime civili.
Quando si tratta di identificare obiettivi di basso rango, ha spiegato: “Quando si tratta di un piccolo caccia, non investiremo manodopera né sprecheremo tempo. [Em plena guerra, não temos tempo para] Criminalizzare attentamente tutti gli obiettivi. Quindi siamo disposti a sfruttare il margine di errore con l’intelligenza artificiale, rischiare danni collaterali e morti civili, rischiare un attacco per errore e convivere con quello.