El Ejército Israelí Utiliza Inteligencia Artificial para Seleccionar Objetivos en Gaza con ‘Aprobación’ del Operador Humano: Informe

Israel ha estado utilizando un sistema de inteligencia artificial llamado Lavender para crear una “lista de asesinatos” de al menos 37,000 personas en Gaza, según un nuevo informe de la revista +972 de Israel, confirmado por The Guardian. Lavender es el segundo sistema de IA revelado después de que se informara por primera vez sobre la existencia de The Gospel de Israel el año pasado, pero mientras The Gospel se dirige a edificios, Lavender se dirige a personas.

El nuevo informe cita a seis oficiales de inteligencia israelíes no identificados que hablaron con +972 sobre cómo el ejército del país “confió casi por completo” en Lavender durante las primeras semanas de la guerra, a pesar de que se sabía que identificaba incorrectamente posibles objetivos como terroristas. Los humanos que estaban en el bucle, el nombre para asegurarse de que una persona es la que toma decisiones de objetivos en lugar de una máquina, esencialmente actuaban como un “sello de goma”, según +972, con oficiales israelíes dedicando aproximadamente 20 segundos a cada decisión.

Según +972, el sistema de IA Lavender funciona analizando información recopilada sobre casi todos los 2.3 millones de palestinos en la Franja de Gaza “a través de un sistema de vigilancia masiva”, evaluando la probabilidad de que cualquier persona en particular pertenezca a Hamas en un sistema de clasificación opaco. A cada palestino se le asigna una clasificación del 1 al 100 que supuestamente determina la probabilidad de que sean miembros del grupo terrorista militante.

Desde +972:

Lavender aprende a identificar características de operativos conocidos de Hamas y la Yihad Islámica Palestina, cuya información fue alimentada a la máquina como datos de entrenamiento, y luego a localizar estas mismas características, también llamadas “características”, entre la población en general, explicaron las fuentes. Un individuo encontrado con varias características incriminatorias diferentes alcanzará una clasificación alta, y por lo tanto automáticamente se convierte en un objetivo potencial de asesinato.

LEAR  Pesimismo económico alcanza cifra récord en Pakistán antes de las elecciones.

El ejército israelí dio “aprobación generalizada” para que los oficiales utilizaran Lavender para el enfoque en Gaza según +972, pero no había requisito de hacer una verificación exhaustiva sobre “por qué la máquina hizo esas elecciones o examinar los datos de inteligencia en bruto en los que se basaron”. Los humanos que verificaban las decisiones de objetivos de Lavender en su mayoría solo verificaban para asegurarse de que el objetivo fuera un hombre, aunque al menos el 10% de los objetivos no tenían ninguna posible asociación con Hamas, según “verificaciones internas”. No está claro cómo se realizaron esas verificaciones internas o si el porcentaje era mucho más alto.

La mayoría de los objetivos fueron bombardeados en sus hogares, según +972. Otro sistema automatizado utilizado en conjunto con Lavender, apodado “¿Dónde está Papá?”, se ha utilizado para atacar objetivos dentro de sus hogares familiares.

“No estábamos interesados en matar a [miembros de Hamas] solo cuando estaban en un edificio militar o comprometidos en una actividad militar”, dijo un oficial de inteligencia israelí anónimo a +972. “Por el contrario, las FDI los bombardeaban en hogares sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones.”

El nuevo informe también afirma que los objetivos identificados por Lavender eran solo militantes de bajo rango, lo que significa que el ejército israelí prefería usar municiones no guiadas o “bombas tontas”, para no desperdiciar bombas caras en objetivos relativamente poco importantes. El resultado ha sido la aniquilación de familias enteras, según +972.

LEAR  Escalado rápido del DePIN y el camino hacia un crecimiento exponencial de la red en minutos Por ChainwireEscalado rápido de DePIN y el camino hacia un crecimiento exponencial de la red en minutos Por Chainwire

Israel también relajó su umbral para el número de civiles que era aceptable matar como “daño colateral”, un informe que es consistente con filtraciones anteriores publicadas en Haaretz sobre nuevas reglas de combate después del 7 de octubre.

Desde +972:

En un movimiento sin precedentes, según dos de las fuentes, el ejército también decidió durante las primeras semanas de la guerra que, por cada operativo de Hamas de bajo rango marcado por Lavender, era permisible matar hasta 15 o 20 civiles; en el pasado, el ejército no autorizaba ningún “daño colateral” durante los asesinatos de militantes de bajo rango. Las fuentes agregaron que, en caso de que el objetivo fuera un alto funcionario de Hamas con el rango de comandante de batallón o brigada, el ejército en varias ocasiones autorizó el asesinato de más de 100 civiles en el asesinato de un solo comandante.

Israel lanzó la guerra en Gaza después de los ataques terroristas del 7 de octubre de 2023, que mataron aproximadamente a 1,200 israelíes y vieron a Hamas secuestrar a unas 240 personas. Más de 32,600 palestinos han sido asesinados en Gaza desde el inicio de la guerra, según las Naciones Unidas, la mayoría identificados como mujeres y niños. Y se estima que miles más enterrados bajo los escombros del territorio devastado no han sido contados. Israel informa que 255 de sus soldados han sido asesinados desde el inicio de la guerra.

Lavender solo se había utilizado como una “herramienta auxiliar” antes del 7 de octubre, según +972, pero listas enteras de asesinatos con decenas de miles de personas fueron adoptadas íntegramente después de los ataques terroristas.

LEAR  Bélgica propone al G7 usar los activos congelados de Rusia en beneficio de Ucrania.

“A las 5 a.m., [la fuerza aérea] vendría y bombardearía todas las casas que habíamos marcado”, dijo una de las fuentes israelíes anónimas a +972. “Sacábamos a miles de personas. No los revisábamos de uno en uno,poníamos todo en sistemas automatizados y, en cuanto uno de [los individuos marcados] estaba en casa, inmediatamente se convertía en un objetivo. Lo bombardeabamos a él y a su casa.”

Israel emitió un comunicado extenso a The Guardian sobre el sistema de IA Lavender el miércoles, insistiendo en que Hamas usa a los palestinos en Gaza como “escudos humanos”, mientras que Israel respeta el derecho internacional.

“Contrariamente a lo que se afirma, las FDI no utilizan un sistema de inteligencia artificial que identifica a operativos terroristas o intenta predecir si una persona es un terrorista. Los sistemas de información son meras herramientas para los analistas en el proceso de identificación de objetivos,” dice la declaración israelí.

“Según las directrices de las FDI, los analistas deben realizar exámenes independientes, en los cuales verifican que los objetivos identificados cumplan con las definiciones pertinentes de acuerdo con el derecho internacional y las restricciones adicionales estipuladas en las directrices de las FDI”, continúa la declaración.

Y aunque el nuevo informe de +972 reconoce que el uso de Lavender se ha reducido en gran medida desde el inicio de la guerra, parte de la razón es que el ejército israelí simplemente se está quedando sin hogares civiles para atacar, ya que “la mayoría de los hogares en la Franja de Gaza ya estaban destruidos o dañados.”

Para obtener las últimas noticias, sigue a Facebook, Twitter e Instagram.