segunda-feira, 5 de agosto de 2024

Israel, Gaza y la Inteligencia Artificial: un inquietante precedente

Las consecuencias sobre la población civil del uso de la Inteligencia Artificial por el Ejército de Israel en Gaza evidencian la urgente necesidad de su regulación en base a principios éticos.

Palestinos inspeccionan el lugar de un ataque aéreo israelí contra la casa de la familia Harb, en Rafah, el 12 de diciembre de 2023. Muchos miembros de la familia murieron en el ataque. 

Escrito por Javier Bornstein

La actual guerra contra Gaza, ya en su noveno mes de contienda y con casi 40.000 muertos palestinos según las últimas cifras oficiales, será tristemente recordada en el futuro por muchas razones. La escalofriante cifra de muertes y heridos civiles es solo una de ellas. También pasará a la Historia por ser el primer genocidio retransmitido en directo en nuestros teléfonos, precedido por el anuncio del ministro de Defensa israelí Yoav Galant del bloqueo total del ingreso de agua, alimentos, combustible, electricidad y ayuda humanitaria para la Franja, lo que constituye una violación flagrante del Derecho Internacional Humanitario (DIH). También nos acordaremos de esta guerra por ser aquella en la que su máximo responsable, Benjamín Netanyahu, fue recibido con honores en el Congreso de los Estados Unidos de América mientras pesaban sobre él acusaciones de genocidio por parte de la Corte Internacional de Justicia de la Organización de Naciones Unidas y una orden de arresto de la Corte Penal Internacional.

Pero esta terrible masacre también será estudiada por otro motivo mucho menos conocido, aunque igual de alarmante, y es que la ofensiva desatada tras los ataques del 7 de octubre supone la primera ocasión en la que un Ejército, el de Israel, ha incorporado de forma masiva y sistemática el uso de la Inteligencia Artificial (IA) en sus operaciones militares, lo cual ha jugado un rol central en la inaudita escala de devastación humana y material de este conflicto. Un antes y un después en la historia militar con profundas implicaciones legales, éticas y científicas que requieren ser abordadas de manera urgente por la comunidad internacional.

‘Una factoría de asesinato en masa’

Así es como describió un oficial de inteligencia israelí el funcionamiento del conjunto de sistemas de IA que el Ejército de Israel está empleando de forma integrada en la guerra de Gaza. Fue en un artículo del medio —formado por periodistas palestinos e israelíes— crítico con la ocupación +972 Magazine, publicado a finales de noviembre del año pasado generando un importante eco en medios internacionales, si bien quizás no tanto como se podría haber esperado. Un segundo artículo del mismo medio, publicado en abril, terminaría por completar la fotografía del siniestro entramado tecnocientífico que sostiene las operaciones israelíes en Gaza.

En síntesis, la investigación de +972 Magazine desveló cómo Israel hace un uso combinado de dos sistemas de IA para la generación de objetivos militares en Gaza. Por un lado, la IA Habsora (evangelio, en castellano) es capaz de identificar edificios que albergarían a miembros y operativos militares de Hamás y Yihad Islámica Palestina, los dos grupos armados principales que operan en Gaza. En paralelo, la IA Lavender hace un trabajo similar centrado en los individuos, buscando identificar a miembros de ambas organizaciones. Ambos sistemas funcionan mediante la búsqueda de patrones en base a una serie de elementos proporcionados en una fase previa de ‘entrenamiento’. El sistema es completado por una tercera IA denominada Where’s Daddy?, la cual permite realizar un seguimiento a los objetivos humanos una vez han sido localizados, priorizándose el bombardeo de estos en sus hogares, al considerarse mucho más alta la probabilidad de éxito en el ataque. La designación de objetivos militares es acompañada en todo momento de la estimación de víctimas civiles colaterales del ataque, estableciéndose un rango aceptable que va desde las 15 para un soldado raso de Hamás, hasta las 300 para un alto cargo.

El resultado de este sofisticado sistema es que en las primeras semanas de guerra Israel fue capaz de generar más de 37.000 objetivos militares, frente a los 50 anuales que los servicios de inteligencia eran capaces de generar previamente. Objetivos militares directamente vinculados a los ataques israelís y que contribuyen a explicar las apabullantes 15.000 víctimas mortales que se produjeron en las seis primeras semanas del conflicto.

El Ejército de Israel no ha negado la existencia de estos sistemas, si bien argumenta que no determinan sus objetivos militares, y que únicamente proporcionan información adicional a sus servicios de inteligencia a la hora de conducir sus operaciones. Sin embargo, numerosos testimonios han revelado cómo, debido a la enorme presión existente en las primeras fases de la guerra para atacar lo más duramente posible a Hamás, el tiempo medio de validación humana del objetivo propuesto por Lavender era de unos 20 segundos. En la práctica, esto llegó a suponer una validación casi automática, en la que únicamente se comprobaba si el objetivo era un hombre y una mujer, aceptándose de manera sistemática en el caso de que fuera masculino. El margen de acierto de Lavender es de un 90 %, lo cual demostraría una autorización sistemática de ataques a sabiendas de que el 10 % de los mismos recaerían sobre víctimas civiles inocentes. 

La cuasi automatización en la selección de objetivos militares reduce al mínimo la toma de decisiones por parte del personal militar

La problemática generada por la introducción de la IA en operaciones militares no radica en los sistemas de IA en cuestión, sino en las actitudes y comportamientos a los que da pie. Las tecnologías contribuyen a modelar las percepciones y acciones de las personas, generando nuevas prácticas y formas de vivir, jugando un rol activo en la toma de decisiones y en la formación de la moral colectiva. En el caso que nos ocupa, la cuasi automatización en la selección de objetivos militares rutiniza un acto que tiene consecuencias directas sobre la vida y la muerte de otras personas, reduciendo al mínimo la toma de decisiones por parte del personal militar. Tras décadas de estrecha convivencia entre máquinas y personas, hemos terminado por admitir como válido lo que dicen aquellas, especialmente en aquellos casos en los que generan información a un ritmo demasiado rápido para que lo sigamos. La consecuencia directa de lo anterior es la existencia de una aparente ‘brecha de responsabilidad’, que generala ilusión de que las personas que validan los objetivos militares proporcionados por la IA estarían eximidas de responsabilidad.

La irrupción de los sistemas de IA en el terreno militar ha generado también una creciente preocupación por su compatibilidad o no con el DIH, las leyes que regulan la guerra. Cada vez son más numerosas las voces que reclaman un marco normativo para regular el uso de la IA con fines militares para asegurar su compatibilidad con el DIH. Otras abogan directamente por su prohibición argumentado una total incompatibilidad entre la IA y el DIH. En el plano judicial, las consecuencias sobre la población civil del uso de estos sistemas están en el punto de mira de las causas abiertas del Gobierno del primer ministro israelí Benjamín Netanyahu, tanto con la Corte Internacional de Justicia como con la Corte Penal Internacional.

Israel y la tecnología: una relación de conveniencia

Para comprender mejor el marco en el que se han producido los avances tecnológicos que están siendo desplegados en Gaza por el Ejército de Israel, conviene prestar atención al ecosistema israelí de i+D+i. Actualmente, el Estado de Israel es el tercero a nivel mundial en inversiones en IA, solo superado por Estados Unidos y China. Israel cuenta con el mayor número de start-ups per cápita del mundo, y goza de un entramado legislativo que favorece enormemente su proliferación. El propio Netanyahu se ha referido en varias ocasiones a la IA como la “nueva electricidad”, afirmando que aquellos que dominen la IA dominarán el futuro.

No es casualidad que en junio de 2023 Sam Altman e Ilya Sutskever, los cofundadores de OpenAI, la empresa detrás de ChatGPT, visitaran Israel y se reunieran personalmente con Netanyahu. Tampoco que recientemente dos de las empresas tecnológicas más importantes, Intel y NVIDIA, hayan confirmado dos proyectos multimillonarios en Israel para la construcción de una planta de microchips y uno de los supercomputadores más potentes hasta la fecha, respectivamente. El Estado israelí favorece activamente la innovación tecnológica, la cual termina por revertir y adaptarse a las necesidades de su aparato militar. Tecnologías que posteriormente Israel vende a otras naciones con el aliciente de haber sido probadas en combate.

Es de común acuerdo que la IA tiene un enorme potencial para afrontar los grandes retos contemporáneos, pero también que supone una amenaza directa a los derechos humanos básicos

La IA y el progreso, un arma de doble filo

El vertiginoso desarrollo de la IA en los últimos diez años y su incursión de manera cada vez más generalizada en prácticamente todas las esferas de nuestras sociedades, desde la medicina a las finanzas, pasando por la creación artística o la interpretación simultánea, ha dado lugar a una creciente preocupación sobre los efectos negativos y/o no deseados de muchos de estos nuevos sistemas. En paralelo al crecimiento de la IA, la comunidad académica e investigadora ha abanderado una serie de iniciativas reclamando el establecimiento de un marco común para el desarrollo de la IA que esté anclado en los principios y valores éticos y morales propios de las democracias modernas, entre los que destacan los Principios de Asilomar y la Declaración de Barcelona. En todas estas iniciativas encontramos un llamado a la urgente necesidad de regular el desarrollo de la IA para asegurar que las necesidades humanas se mantengan siempre en el centro, a través de un marco ético que certifique los desarrollos tecnológicos en IA, y una exigencia de transparencia y rendición de cuentas de los sistemas.

Es de común acuerdo que la IA tiene un enorme potencial para afrontar los grandes retos contemporáneos como el cambio climático o la proliferación de pandemias, pero también que supone una amenaza directa a los derechos humanos básicos. En su último informe anual, Amnistía Internacional alertaba por primera vez de la amenaza del descontrolado avance de la IA y el riesgo de que aumente las desigualdades raciales, la vigilancia y el discurso de odio en internet.

El filósofo portugués Boaventura de Sousa Santos, en su brillante reflexión sobre la incertidumbre, el miedo y la esperanza, alertaba de cómo el conocimiento científico y los desarrollos tecnológicos derivados tienden a ser controlados por y beneficiar a unos grupos sociales determinados, quedando al margen el resto de la población, de tal manera que la producción científica se realiza “sobre ellos y eventualmente contra ellos y, en cualquier caso, nunca con ellos”.

La devastadora cifra de víctimas civiles en la franja de Gaza es, según el prisma desde el que se mire, una dramática constatación de cómo las tecnologías moldean nuestras sociedades, mentalidades y comportamientos, y pone de manifiesto la imperiosa necesidad de regular el desarrollo de nuevas tecnologías basadas en la IA. Una regulación que sin embargo parece lejana e incluso utópica en el caso de las tecnologías con fines militares, contra las que chocan frontalmente las demandas de transparencia y libre acceso. Frente a este callejón aparentemente sin salida, una moratoria total al uso de IA con fines militares hasta que se cuente con una regulación internacionalmente acordada se presenta como una solución lógica, que sin embargo parece poco probable que sea aceptada por las grandes potencias militares.

En el mismo año en que se publicaba el texto de Boaventura de Sousa se produjo un gran avance en las técnicas para la detección del cáncer de mama mediante la colaboración entre el hombre y la máquina. Al combinarse los resultados del patólogo, que tenían un margen de error de 3.4 %, y los de un sistema de IA que tenían un margen de error del 7.5 %, se logró reducir el margen de error a tan solo el 0.52 %. El progreso científico ha mejorado enormemente la calidad de la vida en unos aspectos, al tiempo que indudablemente la ha empeorado en otros. Gracias a la tecnología vivimos más y mejor, pero también estamos llevando al planeta en que vivimos a unos límites que pueden acabar por hacerlo inhabitable. Frente a este dilema, el camino a seguir es una tecnología al servicio de las personas y no al contrario, evitando así que las personas pasen a ser medios para los fines del progreso.


[Foto: Mohammed Zaanoun/ ActiveStills - fuente: www.elsaltodiario.com]

Sem comentários:

Enviar um comentário