Diario de Mallorca

Diario de Mallorca

Contenido exclusivo para suscriptores digitales

Tecnología

Los robots asesinos ya están aquí: ¿hay que regularlos o prohibirlos?

De Libia a Ucrania, la inversión y el despliegue de armas autónomas letales que funcionan con Inteligencia Artificial no para de crecer mientras los expertos piden una regulación para prohibirlas o limitarlas

Manifestación contra los robots asesinos en Berlín. Agencias

El pasado marzo, los investigadores de fuentes abiertas que rastrean digitalmente cada avance en la guerra de Ucrania detectaron que Rusia habría utilizado un avión no tripulado capaz de disparar a sus enemigos gracias a la Inteligencia Artificial (IA). Un robot asesino desplegado en el campo de batalla. Aunque es difícil saber si ese dron ha actuado con independencia, su identificación pone de nuevo en primer plano el temor a la normalización de sistemas de armas autónomas letales, una realidad que ya ha superado a la ciencia ficción.

Como plasmó la retirada militar de Estados Unidos de Afganistán, muchos países son cada vez más reacios a poner el cuerpo en una intervención directa en un conflicto. Mientras que su elevado coste humano y político desincentiva las operaciones sobre el terreno, la posibilidad de actuar en remoto, desde un centro de control a la otra punta del mundo, es una opción mucho más atractiva. Las armas autónomas están abriendo la puerta a la oportunidad de vigilar y responder a posibles insurgencias de grupos terroristas como al Qaeda o el autoproclamado Estado Islámico (ISIS) desde una remota base militar en Nevada a más de 12.000 kilómetros de distancia.

El dron ruso detectado en Kiev podría no ser el primer dispositivo inteligente usado por el Kremlin en una guerra, pues varios informes apuntan a que ese mismo modelo podría haber sido utilizado ya en Siria en 2019. Además de Moscú, Israel, Corea del Sur y Turquía también habrían recurrido a armas con capacidad autónoma, aunque se desconoce si lo habrían hecho con su modo de autogestión activado. Según un informe de las Naciones Unidas, la primera víctima de estos sistemas podría haberse producido con un dron de fabricación turca usado en marzo de 2020 por las fuerzas libias para "cazar y atacar a distancia” en el marco de la guerra civil, una acusación que Ankara rechaza.

Nuevas armas

Estos casos ilustran como esta tecnología militar está proliferando de forma cada vez más rápida. Pero, más allá de su aplicación, son más los países que invierten en investigación. Entre 2016 y 2020, el ejército de EEUU destinó unos 18.000 millones de dólares a esa causa. Washington se ha opuesto a cualquier tipo de regulación. Australia, el Reino Unido y China también estarían financiando la creación de nuevas armas inteligentes de mayor alcance y capacidad.

Los sistemas autónomos letales más comunes son los drones, cuyos algoritmos han sido entrenados para detectar sus objetivos, ya sean tanques, barcos, radares enemigos e incluso a personas concretas. Aunque las aeronaves no tripuladas existen desde hace más de un siglo, los drones como armas de ejecución han proliferado en las dos últimas décadas, especialmente con la presidencia de Barack Obama. Sin embargo, los drones inteligentes son mucho más recientes. Y aún queda mucho por explorar.

Errores mortales

El uso de este tipo de tecnología militar inquieta a los expertos en IA. Una de las principales preocupaciones es los posibles errores en la identificación. Numerosos estudios han demostrado que los fallos algorítmicos son más habituales con personas racializadas, lo que tiende a amplificar su discriminación. El software de reconocimiento de Google, uno de los mayores gigantes tecnológicos del mundo, confundió a afroamericanos con gorilas. Si incluso las imágenes limpias pueden ser problemáticas para la IA, en un contexto de destrucción bélica la identificación de objetivos puede ser mucho más imprecisa. Y, por lo tanto, peligrosa.

El impacto de esos sesgos no es baladí. En la frontera de España tienen el potencial peligro de criminalizar a migrantes en situación de vulnerabilidad. Pero, ¿y si el sistema de reconocimiento facial de un dron confunde a un niño inocente con un terrorista? Aplicado en el campo de batalla, ese margen de error puede equivaler a la muerte. Además, la opacidad con la que los algoritmos toman decisiones –similar a una caja negra— hace que sea prácticamente imposible fiscalizarlos.

Ese peligro se multiplica en un contexto de normalización de este tipo de armas, ya sea en una hipotética carrera armamentística o en el caso de que proliferen versiones baratas de esta tecnología —como ya sucedió con el rifle automático de asalto AK-47 de alashnikov— que permita que grupos terroristas más allá de las tropas regulares tengan acceso a ella.

Rechazo y regulación

La preocupación por este tipo de armas ha ido creciendo en paralelo a su oposición. Miles de expertos en IA y defensores de los derechos humanos han exigido su prohibición. Hasta un 61% de los ciudadanos de 26 países también rechazan su uso, según una encuesta para Human Rights Watch de 2019. India, Israel, Brasil y China son los países en los que más gente cree que los robots pueden usarse para matar a humanos. En España, la desaprobación es del 65%.

Desde 2013, unos 40 países han apoyado la creación de una ley internacional que restrinja y limita estos sistemas y casi un centenar ha mostrado su preocupación. "Imaginen las consecuencias de un sistema autónomo que podría, por sí mismo, apuntar y atacar a seres humanos”, alertó en 2018 el secretario general de Naciones Unidas, António Guterres. “Pido a los Estados que prohíban estas armas, que son políticamente inaceptables y moralmente repugnantes". Sin embargo, la iniciativa aún no ha prosperado. El pasado diciembre, el debate producido durante la Convención de Ciertas Armas Convencionales de la ONU tampoco llegó a buen puerto.

La oposición de muchos ejércitos hace que aprobar un tratado para una prohibición en todo el mundo sea poco viable. Aún así, existen vías para limitar su impacto. Y es que, como han señalado organizaciones internacionales como Stop Killer Robots, podría impulsarse una regulación de las armas autónomas que limite aquellas que suponen un mayor riesgo y una mayor imprevisibilidad, permitiendo el uso de la IA en tecnología militar defensiva como escudos antimisiles inteligentes. Esa rebaja puede ser terreno fértil para alcanzar un acuerdo que ponga límites a la creciente normalización de los llamados robots asesinos. Cuanto más se extienda su uso más difícil será tenerlos bajo control.

Compartir el artículo

stats