Cómo son los programas de inteligencia artificial usados por Israel para planificar asesinatos selectivos en Gaza y bombardear a las personas identificadas cuando estaban en sus hogares

Reportaje05 de abril de 2024

Los medios israelíes +972 Magazine y Local Call han publicado un artículo de investigación que expone que el Ejército israelí utilizó un programa de inteligencia artificial (IA) conocido como “Lavender” para armar una “lista de asesinatos selectivos” en Gaza que llegó a incluir hasta 37.000 hombres palestinos, que fueron designados como objetivos de ataque en un proceso que tuvo poca supervisión humana. La nota también describe un segundo sistema de inteligencia artificial, conocido como “¿Dónde está papá?”, utilizado para rastrear a los “objetivos” incluidos en la lista de asesinatos, al que se diseñó especialmente para poder atacar a estas personas en la noche, cuando estaban en sus casas con sus familias. Hablamos con Yuval Abraham, el periodista israelí a cargo de esta investigación, para la cual entrevistó a miembros del Ejército israelí que estaban “conmocionados por las atrocidades cometidas”. Abraham explica que estos sistemas de identificación de objetivos de ataque, combinados con la política “extremadamente permisiva” del Ejército israelí para los bombardeos, dieron lugar a la “aniquilación de familias palestinas enteras dentro de sus casas”. En una investigación publicada previamente, Abraham había revelado que el Gobierno de Israel estaba usando un sistema de inteligencia artificial llamado “Evangelio” para destruir intencionalmente la infraestructura civil de Gaza —como complejos de apartamentos, universidades y bancos— con el objetivo de generar “presión de la población civil” sobre Hamás. Estos sistemas militares de inteligencia artificial son “un peligro para la humanidad”, afirma Abraham. “La guerra basada en la IA permite que las personas eviten rendir cuentas por sus actos”.

Para ver la entrevista en inglés, haga clic aquí.

Transcripción
Esta transcripción es un borrador que puede estar sujeto a cambios.

AMY GOODMAN: Esto es Democracy Now!, democracynow.org, el informativo de guerra y paz. Soy Amy Goodman.

Las publicaciones israelíes +972 Magazine y Local Call han expuesto cómo el Ejército israelí utiliza una inteligencia artificial (IA) conocida como “Lavender” para desarrollar una “lista de objetivos a matar” en Gaza que incluye hasta 37.000 palestinos que fueron blanco de asesinatos con poca supervisión humana. El informe se basa en parte en entrevistas con seis oficiales de Inteligencia israelíes que trabajaron personalmente con el sistema de IA.

El artículo de +972 dice: “Lavender ha jugado un papel central en el bombardeo sin precedentes de los palestinos, especialmente durante las primeras etapas de la guerra. De hecho, según las fuentes, su influencia en las operaciones militares era tal que esencialmente trataron las decisiones de la máquina de IA 'como si fuera una decisión humana'”.

Un segundo sistema de IA conocido como “¿Dónde está papá?” rastreó a los hombres palestinos en la lista de asesinatos. Fue diseñado a propósito para ayudar a Israel a atacar a individuos cuando estaban en casa por la noche con sus familias. Un oficial de Inteligencia dijo a las publicaciones: “No estábamos interesados en matar a los milicianos solo cuando estaban en un edificio militar o involucrados en una actividad militar. Por el contrario, las FDI los bombardearon en casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para identificarlos cuando están en estas situaciones”, dijeron.

Hoy dedicamos el programa a hablar con el periodista de investigación israelí Yuval Abraham, que publicó este reportaje en +972 y Local Call. Se titula “'Lavender': La máquina de IA que dirige los bombardeos de Israel en Gaza”. Hablé con Yuval Abraham ayer y comencé preguntándole sobre lo que averiguó.

YUVAL ABRAHAM: Gracias por invitarme de nuevo, Amy.

Es un reporte muy largo, de unas 8.000 palabras. Y lo dividimos en seis pasos diferentes. Y cada paso representa un proceso de forma altamente automatizada a través del cual el Ejército señala objetivos desde octubre. El primer hallazgo es Lavender. Lavender fue diseñado por los militares. Su propósito era, cuando se estaba diseñando, señalar a los miembros de bajo rango en las alas militares de Hamás y la Jihad Islámica. Esa era la intención, porque Israel estima que hay entre 30.000 a 40.000 miembros de Hamás, y ese es un número muy grande. Y entendieron que la única manera de identificar a estas personas es confiando en la inteligencia artificial. Esa era su intención.

Ahora, lo que me dijeron las fuentes es que después del 7 de octubre, los militares básicamente tomaron una decisión de que todas estas decenas de miles de personas son ahora personas que podrían ser bombardeadas dentro de sus casas, lo que significa no solo matarlos a ellos, sino a todos los que estén en el edificio, incluidos niños y familias. Y entendieron que para intentarlo, iban a tener que confiar en esta máquina de IA llamada Lavender con una supervisión humana muy mínima. Una fuente me dijo que él sentía que estaba actuando como un sello de aprobación en las decisiones de la máquina.

Ahora bien, lo que hace Lavender es que escanea la información en probablemente el 90% de la población de Gaza. Estamos hablando de más de un millón de personas. Y le da a cada individuo una calificación entre uno y cien, una calificación que representa la probabilidad, según la máquina, —basado en una lista de pequeñas características de la que podemos hablar más tarde— de que ese individuo sea miembro de Hamás o de la Jihad Islámica. Las fuentes me dijeron que los militares sabían, porque lo comprobaron —tomaron una muestra aleatoria y lo comprobaron caso por caso—, que aproximadamente el 10% de las personas que la máquina estaba señalando para ser asesinadas no eran militantes de Hamás. No lo eran. Algunos de ellos tenían una conexión imprecisa con Hamás, otros no tenían ninguna conexión con Hamás. Una fuente me dijo que la máquina señalaba a gente que tenía exactamente el mismo nombre y el mismo apodo que un miembro de Hamás, o personas que tenían perfiles de comunicación similares. Por ejemplo, estos podrían ser trabajadores de la defensa civil o agentes de policía de Gaza. Y lo implementaron, repito, con una supervisión mínima de la máquina. Una fuente dijo que él dedicaba 20 segundos por objetivo antes de autorizar el bombardeo del presunto militante de bajo rango de Hamás, que en muchos casos podía ser un civil, matando así a esas personas dentro de sus casas.

Y creo que esto, la dependencia de la inteligencia artificial para señalar esos objetivos, y básicamente la manera tan mortal en el que los oficiales hablaban de cómo estaban usando la máquina, podría muy bien ser parte de la razón por la que en las primeras seis semanas después del 7 de octubre, una de las principales características de las políticas que estaban siendo aplicadas era que familias palestinas enteras estaban siendo aniquiladas dentro de sus casas. Si miramos las estadísticas de la ONU, más del 50% de las víctimas, más de 6.000 personas en ese momento, provenían de un grupo más pequeño de familias. Es una expresión de cómo la unidad familiar está siendo destruida. Y creo que esa máquina y la forma en que se usó llevó a eso.

AMY GOODMAN: Usted habla de la elección de objetivos y de los llamados objetivos de alto valor, comandantes de Hamás, y luego los milicianos de nivel inferior. Y como usted dijo, muchos de ellos, al final, no eran ni lo uno ni lo otro. Hable de los edificios que fueron atacados y las bombas que se utilizaron para atacarlos.

YUVAL ABRAHAM: Sí. Es una buena pregunta. Lo que me dijeron las fuentes es que durante esas primeras semanas después del 7 de octubre, para los miembros de bajo rango en Hamás, muchos de los cuales fueron señalados por Lavender, así que podemos considerarlos “presuntos milicianos” que fueron señalados por la máquina, tenían predeterminado lo que ellos llaman un “grado de daño colateral”. Y esto significa que los departamentos sobre derecho internacional de las fuerzas armadas les dijeron a estos oficiales de Inteligencia que para cada objetivo de bajo rango que señala Lavender, al bombardear ese objetivo, se les permite matar… una fuente dijo que el número era hasta 20 civiles, repito, para cualquier miembro de Hamás, independientemente del rango, sin importar su relevancia, sin importar su edad. Una fuente dijo que había también menores señalados, no muchos, pero dijo que esa era una posibilidad, que no había límite de edad. Otra fuente dijo que el límite era de hasta 15 civiles para los milicianos de bajo rango. Las fuentes dijeron que para comandantes superiores de Hamás, que podrían ser comandantes de brigadas o divisiones o batallones, los números eran, por primera vez en la historia de las FDI, cifras de tres dígitos, según esas fuentes.

Entonces, por ejemplo, Ayman Nofal, quien era el comandante de Hamás de la Brigada Central, una fuente que participó en el ataque contra esa persona dijo que los militares autorizaron matar junto a esa persona a 300 civiles palestinos. Y en +972 y Local Call hemos hablado con palestinos que fueron testigos de ese bombardeo, y hablan de que cuatro edificios residenciales bastante grandes fueron bombardeados ese día, apartamentos enteros llenos de familias que fueron bombardeadas y asesinadas. Y esa fuente me dijo que esto no es un error, como en el caso de estos 300 civiles, el ejército israelí lo conocía de antemano. Y las fuentes me lo describieron, y me dijeron que… Una fuente me dijo que durante esas semanas, al inicio, efectivamente, el principio de proporcionalidad, como lo llaman en virtud de las leyes internacionales, “no existió”.

AMY GOODMAN: Hay dos programas: Lavender y “¿Dónde está papá?”. ¿Cómo sabían si estos hombres eran inocentes o no?

YUVAL ABRAHAM: La forma en la que el sistema fue diseñado… En general hay un concepto en los sistemas de vigilancia masiva llamado “vinculación”. Cuando se quieren automatizar estos sistemas, quieres ser capaz muy rápidamente de… Por ejemplo, has identificado a una persona, y quieres que el ordenador pueda vincular muy rápidamente esa persona identificada con otras cosas. Y lo que me dijeron las fuentes es que, dado que todos en Gaza tienen una casa, o al menos así era antes, el sistema fue diseñado para ser capaz de vincular automáticamente a personas con viviendas. Y en la mayoría de los casos, estos hogares que están vinculados a los individuos que Lavender está señalando como miembros de bajo rango no son lugares donde esté teniendo lugar una acción militar activa, según esas fuentes. Sin embargo, la forma en la que el sistema fue diseñado, y programas como ¿Dónde está papá?, que fueron diseñados para buscar a estos miembros de bajo rango cuando entran en las casas… en concreto, el programa envía una alerta a los oficiales de Inteligencia cuando estos sospechosos señalados por la IA entran en sus casas. El sistema fue diseñado de una manera que permitió al ejército israelí llevar a cabo bombardeos masivos contra palestinos, a veces miembros de Hamás, a veces supuestos miembros, a los que no conocemos, cuando estaban en estas casas.

Las fuentes dijeron… CNN informó en diciembre que el 45% de las bombas, según los informes de inteligencia de Estados Unidos, que Israel arrojó sobre Gaza no eran bombas guiadas, eran las llamadas “bombas tontas”, que causan un mayor daño a los civiles. Destruyen todo el edificio. Y las fuentes dijeron que para estos miembros de bajo rango en Hamás, solo estaban usando bombas tontas, lo que significa que estaban destruyendo las casas con todas las personas dentro. Y cuando preguntas a agentes de Inteligencia por qué, una explicación que dan es que estas personas eran objetivos “sin importancia”. No eran lo suficientemente importantes, desde una perspectiva militar, como para que el ejército israelí, según dijo una fuente, desperdiciara municiones caras, en referencia a bombas guiadas que tal vez podría haber destruido solo una planta en particular del edificio.

Y para mí, eso fue muy llamativo, porque estás soltando una bomba en una casa y matando a familias enteras, a pesar de que el objetivo al que quieres asesinar con ese bombardeo no se considera lo suficientemente importante como para “desperdiciar” una bomba cara. Y creo que es un reflejo poco común de la forma en que los militares israelíes evalúan el valor de las vidas palestinas en relación con la ganancia militar esperada, que es a lo que se llama principio de proporcionalidad. Creo que una cosa que ha quedado muy clara de todas las fuentes con las que hablé es que esto… dijeron que esto era psicológicamente impactante incluso para ellos, como si fuera…

Esa es la combinación entre Lavender y “¿Dónde está papá?”. Las listas de Lavender se introducen en “¿Dónde está papá?” y estos sistemas rastrean a los sospechosos y esperan a que entren en sus casas, por lo general, casas familiares donde no hay actividad militar según varias fuentes que hicieron esto, que hablaron conmigo de esto. Y estas casas son bombardeadas usando misiles no guiados. Esta era una característica principal de la política israelí en Gaza, al menos durante las primeras semanas.

AMY GOODMAN: Usted escribe que sus fuentes dijeron que no tenían suficientes bombas inteligentes. que son más caras, así que no querían desperdiciarlas, por lo que usaron bombas tontas…

YUVAL ABRAHAM: Sí.

AMY GOODMAN: …que matan a muchas más personas.

YUVAL ABRAHAM: Sí, exactamente. Eso es lo que dijeron. Pero luego digo, ¿esa persona no es lo suficientemente importante para ti como para desperdiciar municiones, pero estás dispuesto a matar a 15 civiles, a una familia?

AMY GOODMAN: Yuval Abraham, quería leer algo de la declaración del Ejército israelí, la declaración de las FDI, en respuesta a su artículo.

YUVAL ABRAHAM: Por favor.

AMY GOODMAN: Dicen, y cito: “El proceso de identificar objetivos militares en las FDI consta de varios tipos de herramientas y métodos, incluyendo herramientas de gestión de la información, que se utilizan con el fin de ayudar a los analistas de inteligencia a recopilar y a analizar de manera óptima la información de inteligencia, obtenida de una variedad de fuentes. Contrariamente a lo que se afirma, las FDI no utilizaron ningún sistema de inteligencia artificial que identifique a agentes terroristas o que intente predecir si una persona es un terrorista. Los sistemas de información son meras herramientas para los analistas en el proceso de identificación de objetivos”. De nuevo, esa es la respuesta de las FDI, Yuval Abraham, a su reporte. ¿Qué tiene que decir al respecto?

YUVAL ABRAHAM: Leí esta respuesta a algunas de las fuentes, y dijeron que estaban mintiendo, que no es cierto. Y me sorprendió que fueran tan… Por lo general no son tan abiertos para decir algo que es falso.

Creo que esto se puede refutar muy fácilmente, ya que un funcionario de alto rango del Ejército israelí, quien lidera el centro de datos de IA de la Unidad 8200, dio una conferencia pública el año pasado, en 2023, en la Universidad de Tel Aviv, —cualquier persona que escuche esto puede buscarlo en Google— en la que habló sobre —y estas son sus palabras en esa conferencia— “un sistema de IA que el Ejército israelí usó en 2021 para encontrar terroristas”. Eso es lo que dijo. Entonces, que exista un registro de eso —yo tengo las diapositivas de la presentación que muestran cómo el sistema está clasificando a la gente— y que luego el portavoz de las FDI haya salido a decir: “No tenemos un sistema que usa IA para…”, no sé qué pensar. Casi llegué a dudar si debía publicar esta historia o no. Porque, al fin y al cabo, les di espacio en mi publicación para que hicieran esas afirmaciones, ya que intenté ser lo más objetivo posible al presentar el reporte. Pero, en realidad, confío bastante en esos hallazgos, los cuales están verificados con numerosas fuentes con las que he hablado.

Y creo que la gente que lea la investigación completa, que la lea en profundidad, verá que el comandante de la Unidad 8200 escribió un libro en 2021, titulado “Equipos hombre-máquina: cómo la sinergia entre la inteligencia artificial y la humana puede revolucionar el mundo”. Y en ese libro él habla de cómo los militares deberían confiar en la inteligencia artificial para “resolver el problema de la obstrucción que generan los humanos” al identificar nuevos objetivos y en la toma de decisiones para aprobar nuevos objetivos. Él también escribió en el libro, y esta es otra cita textual, que “no importa cuántos oficiales de Inteligencia estén encargados de identificar objetivos durante la guerra, estos no podrán identificar suficientes objetivos por día”. Y él ofrece una guía en ese libro sobre cómo desarrollar estos sistemas de IA. Ahora bien, quiero enfatizar que en el libro él escribe muy claramente que estos sistemas no deben reemplazar el juicio humano. Él lo describe como un aprendizaje mutuo entre los humanos y la inteligencia artificial. Él dice —y las Fuerzas de Defensa de Israel lo sostienen— que son los oficiales de Inteligencia quienes miran los resultados y toman una decisión.

Según escuché de parte de muchas fuentes, desde el 7 de octubre ese dejó de ser el caso, al menos en algunos sectores de las FDI en los que, de nuevo, Amy, como dije antes, según les dijeron a las fuentes, si los funcionarios ven que el objetivo es un hombre, pueden aceptar las recomendaciones de Lavender sin analizarlas a fondo, sin comprobar por qué la máquina tomó la decisión que tomó.

Creo que, al hablar con las fuentes… Solo para describirlas, muchas de estas fuentes fueron reclutadas por las FDI después del 7 de octubre. Muchos de ellos estaban consternados por las atrocidades que ocurrieron el 7 de octubre contra sus familias, sus amigos. Algunos de ellos no pensaban que serían reclutados de nuevo por las FDI. Y dijeron: “Bueno, tenemos que pelear ahora”. Había esta sensación de… Y, gradualmente, cuando se dieron cuenta de lo que se les estaba pidiendo que hicieran, las cosas en las que estaban involucrados… yo no diría que los seis actuaron así, pero al menos algunos de ellos se sintieron consternados por cometer atrocidades y por involucrarse en cosas como matar familias, y sintieron que era algo injustificable. Y creo que se sintieron responsables. Esto también lo percibí en el artículo que escribí previamente, “Una fábrica de asesinatos en masa”, que hablaba de otro sistema de IA llamado “El Evangelio”. Ellos vieron la necesidad de compartir esta información con el mundo, porque sentían que la gente no se estaba enterando. La gente escucha al portavoz militar y todas estas narrativas que hemos estado escuchando durante los últimos seis meses, y eso no refleja la realidad sobre el terreno.

Y realmente estoy convencido de que un ataque en Rafah es ahora inminente y estos sistemas podrían usarse allí de nuevo para matar a palestinos en grandes cantidades en estos ataques que también ponen en peligro las vidas de los rehenes israelíes que siguen retenidos injustificadamente en Gaza y necesitan ser liberados. Tiene que haber un alto el fuego. Esto no puede continuar. Y espero que esta investigación, que expone las cosas con tanta claridad, sirva para que más personas en todo el mundo exijan un alto el fuego, exijan la liberación de los rehenes y el fin de la ocupación y que se avance hacia una solución política allí. Para mí, no existe otro camino a seguir.

AMY GOODMAN: Quisiera preguntarle si el Ejército de EE.UU., si la tecnología estadounidense está jugando un papel en el sistema de inteligencia artificial israelí.

YUVAL ABRAHAM: No lo sé. Y hay información que no puedo compartir por completo en este momento. Estoy investigando quién está involucrado en el desarrollo de estos sistemas.

Lo que puedo decirle es que, según la experiencia previa de la guerra de 2014 y la guerra de 2021, cuando terminan las guerras, estos sistemas son vendidos a Ejércitos en todo el mundo. Creo que, independientemente de los horribles resultados y consecuencias de estos sistemas en Gaza, o además de eso, creo de verdad que existe un peligro para la humanidad. Este uso de la IA en la guerra permite a las personas evitar ser responsabilizadas. Permite generar objetivos de forma realmente masiva, con miles de personas, 37.000 personas como objetivos de potenciales asesinatos. Y estos sistemas permiten hacer eso y mantener una especie de estética del derecho internacional, porque tienen una máquina que crea un perfil de un objetivo, con cosas como comandante o daños colaterales, pero que pierden todo significado.

Tomemos por ejemplo el principio de distinción en el derecho internacional. Cuando diseñas un sistema que señala a 37.000 personas, y cuando lo verificas sabes que el 10% de esas personas en realidad no son milicianos, sino que están vagamente relacionados con Hamás o no lo están en absoluto, y sigues autorizando el uso de ese sistema sin ningún control significativo durante varias semanas, ¿no es eso una violación de ese principio? Cuando autorizas matar hasta 15 o 20 civiles para matar a objetivos que consideras, desde un punto de vista militar, que no son de especial importancia, ¿no es eso una violación clara del principio de proporcionalidad? Y no sé, la verdad; creo que el derecho internacional está en crisis en este momento. Y creo que estos sistemas basados en la IA están empeorando esa crisis. Están despojando todos estos principios de su significado.

AMY GOODMAN: Quiero que veamos un clip del portavoz del Consejo de Seguridad Nacional, John Kirby, respondiendo a las preguntas sobre la muerte de siete trabajadores humanitarios en tres vehículos de la organización World Central Kitchen del chef Andrés. Este es Kirby.

NIALL STANAGE: ¿Disparar un misil contra personas que entregan alimentos, y matarlas, no es una violación del derecho internacional humanitario?

JOHN KIRBY: Bueno, los israelíes ya han admitido que esto fue producto de un error suyo. Están llevando a cabo una investigación. Van a llegar al fondo de este asunto. No nos adelantemos. […] El Departamento de Estado cuenta con un proceso. Y, hasta la fecha, mientras usted y yo hablamos, no han encontrado ningún incidente en el que los israelíes hayan violado el derecho internacional humanitario.

AMY GOODMAN: Ese era el portavoz de Seguridad Nacional, John Kirby, diciendo que Israel nunca ha violado el derecho internacional desde el 7 de octubre hasta ahora. Y, de nuevo, él dijo esto en respuesta a una pregunta sobre la muerte de los siete trabajadores humanitarios, un palestino y seis trabajadores humanitarios internacionales. ¿Puede hablar sobre lo que piensa de este ataque, en el que tres misiles diferentes impactaron tres vehículos, y sobre lo que dijo Kirby?

YUVAL ABRAHAM: Sí. ¡Vaya! Es bastante impactante, en mi opinión, lo que dijo, si tenemos en cuenta las pruebas que existen. Lo primero que me pasó por la mente cuando él hablaba de que Israel lo iba a investigar, ya que conozco las estadísticas… Si miramos los bombardeos y la guerra en Gaza de 2014, como saben, 512 menores palestinos fueron asesinados. Israel dijo que lo iba a investigar. Se presentaron cientos de acusaciones de crímenes de guerra. Pero solo hubo un caso en el que el Ejército israelí procesó a un soldado, y tenía que ver con el saqueo de unos 1.000 séqueles. Todo lo demás fue archivado. Esto sucedió [también] en 2018 y 2019. Doscientos treinta palestinos fueron baleados a muerte en la frontera. De nuevo, decenas de… Solo se procesó un caso. Afirmar que el hecho de que Israel está conduciendo una investigación de alguna manera significa que van a llegar al fondo de esto y que se producirán cambios, no es más que una burla a nuestra inteligencia, a mi parecer.

Lo segundo que diría, es que es cierto que el Estado de Israel se disculpó por ello. Pero si nos fijamos en el historial de personas muertas alrededor de camiones de ayuda, esto les ha sucedido una y otra vez a los palestinos. Tan solo a principios de marzo, 112 palestinos murieron alrededor de un camión de ayuda con harina. El periódico The Guardian informó en ese momento que se produjeron 14 casos similares en febrero y enero. Así que para mí está claro que el Ejército israelí se está disculpando, no por el crimen cometido, sino debido a la identidad de las personas que murieron en el crimen. Y creo que eso es una verdadera hipocresía.

Y para responder a la pregunta sobre mis hallazgos, bueno, no sé si la inteligencia artificial tuvo que ver en ese ataque. No quiero decir algo de lo que no estoy 100% seguro. Pero lo que he aprendido de los funcionarios de Inteligencia israelíes hace que no me sorprenda que haya ocurrido este ataque, porque la política para abrir fuego es completamente permisiva. Y lo estamos viendo. Estamos viendo civiles desarmados siendo bombardeados hasta la muerte. Vimos aquel vídeo de cuatro personas caminando que murieron en un bombardeo directo. Hay médicos que hablan de cómo en los hospitales están viendo niños y niñas pequeños, con agujeros de bala; la investigación de The Guardian tomó en cuenta testimonios de nueve médicos al respecto. Así que esta permisividad extrema no me sorprende.

AMY GOODMAN: Su artículo no habla de drones, pero, Yuval, ¿puede hablar de cómo interactúan los sistemas de IA con drones de ataque?

YUVAL ABRAHAM: Sí, como sabe, ya había dicho esto antes, Amy. No puedo hablar de todas las cosas, porque estamos, de alguna forma… Siempre debemos tener en cuenta el censor militar en Israel. Como periodistas israelíes, estamos muy, muy regidos por eso.

Pero los sistemas interactúan. Y si Lavender identifica a alguien como un objetivo a matar, entonces a esa persona se le podría matar con un avión de combate, con un dron o con un tanque en tierra. Hay como una especie de política de compartir inteligencia entre diferentes unidades y diferentes operadores de armas.

No me sorprendería si —porque Israel dijo que [en el convoy] había un objetivo, alguien de quien sospechaban; por supuesto, los trabajadores humanitarios rechazaron esa versión por completo, pero no me sorprendería si la alerta que el sistema israelí recibió provino de una falla en un mecanismo automatizado que esté vigilando el área de forma masiva y que detectó algo, pero no tenía el más alto nivel de precisión. De nuevo, según lo que escucho de las fuentes, en este ambiente, este sería el caso.

AMY GOODMAN: Ese era el periodista de investigación Yuval Abraham, hablando sobre su más reciente artículo para +972 Magazine y Local Call, titulado “'Lavender': la máquina de IA que dirige los bombardeos de Israel en Gaza”. Yuval nos acompañó desde Jerusalén.

Al regresar, le pregunté a Yuval sobre una película que codirigió, la cual ganó el premio al mejor documental en la Berlinale, el festival de cine de Berlín en Alemania. En su discurso de aceptación, Yuval dijo que Israel era culpable de apartheid. Yuval nos cuenta lo que pasó después. Quédese con nosotros.


Traducido por Igor Moreno Unanua. Editado por Iván Hincapié.

The original content of this program is licensed under a Creative Commons Attribution-Noncommercial-No Derivative Works 3.0 United States License. Please attribute legal copies of this work to democracynow.org. Some of the work(s) that this program incorporates, however, may be separately licensed. For further information or additional permissions, contact us.

Las noticias no comerciales necesitan de su apoyo

Dependemos de las contribuciones de nuestros espectadores y oyentes para realizar nuestro trabajo.
Por favor, haga su contribución hoy.
Realice una donación
Inicio