La inteligencia artificial toma decisiones militares cada vez más importantes
Como escribe Alice Civitella en la página web de la Sociedad Italiana de Derecho Internacional, «Lavender analiza la información recogida previamente por un sistema de vigilancia masiva sobre ciudadanos palestinos, y luego les asigna una puntuación del 1 al 100 según la probabilidad de que sean militantes de Hamás o de la Yihad Islámica».
Confiar de este modo en un sistema informático plantea varios aspectos problemáticos, en primer lugar, continúa explicando Civitella, debido a la vaguedad de los datos proporcionados al sistema durante la fase de entrenamiento, Lavender cometió varios errores en la identificación de personas, confundiendo a policías y trabajadores de la defensa civil con militantes de Hamás o indicando objetivos erróneos debido a una homonimia banal.
Errores, por lo demás, imputables solo en parte al sistema: al informar sobre los objetivos que deben ser alcanzados, Lavender indica cuál es el umbral de precisión de su predicción. A continuación, corresponde al ejército israelí decidir qué tasa de error está dispuesto a aceptar: cuanto más alta sea, mayor será el riesgo de alcanzar a inocentes.
Según Foreign Policy, el porcentaje de error tolerado por el ejército se ha fijado en el 10%. Los objetivos que superan este porcentaje son revisados rápidamente por un equipo de analistas humanos. El enorme número de objetivos identificados, el hecho de que en la mayoría de los casos se les alcance cuando están en sus casas y que a menudo se utilicen ataques aéreos para llevar a cabo las matanzas tiene una consecuencia obvia y trágica: el enorme número de víctimas civiles.
Según fuentes oídas por +972, el ejército israelí considera aceptable matar hasta 15 civiles por cada combatiente de Hamás de los rangos inferiores. Esta cifra llega hasta 100 en el caso de comandantes u otros miembros destacados de la milicia palestina.
Dado que los objetivos seleccionados por Lavender son (presuntos) combatientes, esta modalidad parecería respetar el derecho internacional y en particular, explica Foreign Policy, la «doctrina del doble efecto», que «permite daños colaterales previsibles pero no intencionados, siempre que la consecución del objetivo no dependa de que se produzcan estos daños colaterales, como es el caso de un ataque aéreo contra un objetivo legítimo que se produciría de todos modos, en presencia o ausencia de civiles».
En resumen, el ejército israelí seguiría en sus acciones la denominada «lógica operativa de los asesinatos selectivos«, a pesar de que (debido al enorme número de objetivos señalados por el sistema Lavender) sus acciones se asemejan a menudo a bombardeos en alfombra, prohibidos por el derecho internacional.
Dilemas éticos y jurídicos
Por un lado, por tanto, el uso de estos sistemas corre el riesgo de provocar el llamado «sesgo de automatización»: la tendencia de los seres humanos a aceptar las indicaciones de la máquina (considerada un sistema objetivo, ya que actúa sobre una base estadística) incluso en circunstancias en las que, de otro modo, habrían actuado de forma diferente (por ejemplo, ignorando el riesgo de un intercambio de personas). Por otro lado, el uso de programas informáticos como Lavender elimina al menos parte de la responsabilidad de los agentes que se basan en ellos.
Según leemos en la página web de la red italiana de Desarme por la Paz (que forma parte de la campaña internacional Stop Killer Robots, que promueve la prohibición de las armas autónomas), el uso de estos sistemas suscita «serias preocupaciones por el creciente uso de la inteligencia artificial en los conflictos, los sesgos inherentes a las formas de automatización, la deshumanización digital y la pérdida de control humano en el uso de la fuerza».
Share this content:
Publicar comentario