04.04.2024 - 05:04
|
Actualització: 04.04.2024 - 09:08
El periodista Yuval Abraham ha publicat un informe a la web israeliano-palestina +972 Magazine i a l’agència israeliana Local Call en què, citant fonts de la intel·ligència israeliana, descriu l’ús de la intel·ligència artificial en la guerra de Gaza i explica que això ha causat un gran nombre de morts. Les forces de defensa israelianes han admès l’existència del programa, que és conegut amb el nom de Lavender, però han dit que havien dut a terme una resposta “proporcional”.
Segons que sembla, el programa ha identificat els perfils de 37.000 ciutadans de Gaza com a possibles simpatitzants d’Hamàs i la Gihad Islàmica, i de resultes d’això n’han estat atacats els domicilis, cosa que pot explicar el gran nombre de víctimes del conflicte.
Yuval Abraham és un periodista i cineasta conegut, autor del film No Other Land, estrenat a la Berlinale d’enguany. És descendent dels supervivents de l’Holocaust, crític amb l’ocupació de Palestina i viu a Jerusalem. Col·labora sobretot amb +972 Magazine, una revista d’esquerres nascuda l’any 2010 a partir de l’associació de quatre coneguts periodistes i es finança amb subscriptors. Alguns sectors de l’esquerra israeliana la consideren radical perquè assumeix l’analogia de l’apartheid. +972 és el prefix telefònic d’Israel.
Un gran banc de dades per a identificar possibles simpatitzants d’Hamàs
El reportatge explica, d’acord amb el testimoni de sis militars que no s’identifiquen amb nom i cognoms, que la campanya de bombardaments de l’exèrcit israelià a Gaza es va basar en un banc de dades alimentat per intel·ligència artificial –fins ara no divulgat– i que va arribar a identificar 37.000 possibles objectius basant-se en el perfil i en els vincles aparents amb Hamàs. El sistema rep el nom de Lavender.
Aquests sis membres de la intel·ligència militar israeliana diuen que Lavender ha tingut un paper central en la guerra, tot processant grans masses de dades per identificar ràpidament possibles simpatitzants o militants de baix nivell. Quatre de les fonts expliquen que, en una etapa inicial de la guerra, Lavender va arribar a fer una llista de 37.000 palestins que la màquina considerava que podien tenir relacions o simpatitzar amb Hamàs o la Gihad.
Lavender va ser desenvolupat per la Divisió d’Intel·ligència d’Elit de les Forces de Defensa d’Israel, la Unitat 8200.
Dues de les fonts expliquen en el reportatge que durant les primeres setmanes de la guerra els van permetre de matar 15 o 20 civils durant els atacs als objectius assenyalats per Lavender. Els atacs contra aquests objectius es cometien normalment amb munició no dirigida destruint cases senceres i matant-ne tots els ocupants.
“No vols malgastar bombes cares en persones poc importants –és molt car per al país i n’hi ha una escassetat [d’aquestes bombes]”, explica en el reportatge un oficial d’intel·ligència. Un altre diu que la pregunta principal a què s’enfrontaven era si el dany col·lateral als civils permetia un atac, “perquè normalment portàvem a terme aquests atacs amb ‘bombes ximples’, i això volia dir deixar caure literalment tota la casa sobre els ocupants”. El problema era que amb tants objectius identificats no era possible de fer servir bombes intel·ligents –que es poden guiar i fer explotar de manera controlada–, que només es feien servir contra dirigents o militants coneguts i qualificats de les dues organitzacions.
Segons experts en conflictes, que Israel hagi fet servir “bombes ximples” per aterrar les cases d’aquests milers de palestins que un sistema d’intel·ligència artificial havia relacionat amb Hamàs pot explicar el sorprenent i desproporcionat nombre de morts que hi ha hagut en la guerra.
Una altra font, que va justificar l’ús de Lavender per ajudar a identificar objectius de baix rang, diu: “Quan es tracta d’un militant de base no vols esmerçar mà d’obra i temps a identificar-lo”, perquè en temps de guerra no hi ha prou temps per a “discriminar cada objectiu amb cura”.
També expliquen que els processos de selecció d’objectius de les FDI en la fase més intensiva del bombardament es van relaxar. “Hi va haver una política totalment permissiva pel que fa a les víctimes de les operacions [de bombardament]”, diu una font. De manera que es va assumir el marge d’error de l’ús de la intel·ligència artificial, “corrent el risc de danys col·laterals i morts de civils, i corrent el risc d’atacar per error”.
Quan eren sospitosos de baix nivell d’Hamàs i la Gihad Islàmica, diuen, la preferència era atacar si es creia que eren a casa. “No estàvem interessats a matar militants d’Hamàs només quan eren en un edifici militar o dedicats a una activitat militar”, va dir un dels testimonis. “És molt més fàcil bombardar la casa d’una família i el sistema és dissenyat per buscar-los en aquestes situacions.”
Aquesta estratègia tenia grans riscs de baixes civils, i les fonts van coincidir a dir que les forces de defensa d’Israel havien imposat límits pre-autoritzats sobre el nombre de civils que consideraven acceptables de matar en un atac dirigit a un únic militant d’Hamàs.
La proporció va canviar amb el temps i podia variar d’acord amb la importància de l’objectiu. Segons +972 i Local Call, les FDI van considerar permès de matar més de cent civils en atacs contra oficials d’Hamàs de rang alt. “Teníem un càlcul de quants civils es podrien matar per a un comandant de brigada, quants per a un comandant de batalló, i així successivament”, explica una de les fonts.
Una altra font diu que el límit de víctimes civils permeses va pujar i baixar amb el temps, i que en un moment determinat va ser tan baix com 5. Durant la primera setmana del conflicte, diu la font, es va donar permís per a matar 15 no combatents en els atacs contra militants de base a Gaza. Tanmateix, afegeixen, les estimacions de baixes civils eren imprecises, perquè no era possible de saber amb seguretat quantes persones hi havia en un edifici.
La resposta d’Israel
Responent a la publicació del reportatge a +972 i Local Call, i després a The Guardian, les forces de defensa d’Israel han dit en un comunicat que les seves operacions segueixen les regles de proporcionalitat segons el dret internacional. I que les “bombes ximples” són “armament estàndard” que utilitzen els pilots de les FDI d’una manera que garanteix “un alt nivell de precisió”.
Segons la declaració, Lavender –que fins al moment de la publicació era desconeguda pel públic– és un banc de dades usat “per a entrecreuar fonts d’intel·ligència, amb la finalitat de produir capes d’informació actualitzades sobre les operacions militars d’organitzacions terroristes”. I afegeix que no és cap llista d’objectius confirmats elegibles per a atacar.
“Les FDI no usen un sistema d’intel·ligència artificial que identifiqui terroristes o intenti predir si una persona és un terrorista”, afegeix el portaveu del Ministeri de Defensa. “Els sistemes d’informació són simplement eines per als analistes en el procés d’identificació d’objectius.”
Sobre l’autorització per a matar civils, les FDI diuen que els seus procediments “exigeixen avaluar individualment l’avantatge militar anticipat i els danys col·laterals esperats” i que no cometen atacs “quan els danys col·laterals esperats són excessius en relació amb l’avantatge militar”.