Gran angular

La amenaza de los robots asesinos

cou_03-18_ratnik_01.jpg

La opinión pública se moviliza cada vez más contra el desarrollo de armas letales autónomas.

La inteligencia artificial (IA) tiene numerosas aplicaciones en la seguridad y en el ámbito militar. Sobre el terreno, facilita las maniobras y permite salvar vidas en caso de accidentes. Mejora el rendimiento de los ejércitos proporcionando aliados robots a los combatientes. Según algunos expertos, los Sistemas Armamentísticos Autónomos Letales (SALA, por sus siglas en inglés) están creando la tercera revolución bélica, después de la pólvora y las armas nucleares. No podemos dejar de preocuparnos al pensar que pronto llegará el día en que los ejércitos de robots serán capaces de realizar hostilidades con total autonomía.

Vasily Sychev

 

Muchas empresas, en el mundo entero, realizan importantes investigaciones científicas en el campo de la inteligencia artificial (IA). Los resultados obtenidos hasta la fecha son excelentes: la IA ya aprendió a predecir el riesgo de contraer diabetes mediante una muestra “inteligente” o a distinguir, por su apariencia, los nevus de algunos tipos de cáncer. Esta poderosa herramienta, que supera la inteligencia humana por una de sus características más importantes –la velocidad– interesa también a los militares.

Gracias al desarrollo de las tecnologías informáticas, los sistemas de combate del futuro se volverán más autónomos que los sistemas actuales. Por un lado, esa autonomía constituirá, sin lugar a dudas, una valiosa ayuda para los combatientes. Por otro lado, traerá consigo nuevos desafíos y riesgos: una carrera de armamentos entre los países, falta de reglamentación y leyes en las zonas de combate e irresponsabilidad en la toma de decisiones. En la actualidad, muchos empresarios, responsables políticos y científicos tratan de prohibir el uso de sistemas de combate autónomos, mientras que los militares aseguran que en el combate la decisión final –matar o no– será tomada por un ser humano.

Nosotros queremos creer en ello, pero cabe recordar que el arma nuclear –esa arma que nunca debería haber existido y que se enfrentó, desde la etapa más temprana de su concepción, a numerosos opositores– fue utilizada a pesar de todo.

Un asistente virtual

Como en todos los demás campos de la actividad humana, la IA puede facilitar y acelerar en gran medida el trabajo en el ámbito de la seguridad. Así pues, investigadores de la Universidad de Granada (España) elaboran actualmente un programa informático que, con la ayuda de redes neuronales, es capaz de detectar casi en forma instantánea y con una gran precisión armas ligeras –pistolas, metralletas, ametralladoras– en imágenes de vídeo. Los sistemas de seguridad modernos comprenden un gran número de cámaras de vigilancia, cuyos operadores sencillamente no pueden ver las imágenes una por una. Por ello, la IA es de gran utilidad para analizar esas imágenes, detectar la presencia de armas e informar de ello a los agentes en un tiempo récord.

En otro caso, el Centro de Inteligencia Geoespacial de la Universidad de Misuri (Estados Unidos) desarrolló un sistema de IA capaz de localizar rápidamente y con exactitud dispositivos de misiles antiaéreos en imágenes satelitales y aéreas. Su capacidad de búsqueda es hasta 85 veces más rápida que la de los expertos humanos. Para formar la red neuronal que respalda este sistema, se utilizaron fotos que representan diferentes tipos de misiles antiaéreos. Una vez instalado, el sistema fue probado con una serie de fotos: en sólo 42 minutos, encontró 90 % de los dispositivos de defensa. Los expertos necesitaron 60 horas de trabajo para resolver el mismo problema, con el mismo resultado.

También existen aplicaciones de IA más complejas. El laboratorio de investigación del Ejército de Estados Unidos, por ejemplo, desarrolla un sistema informático que analiza la reacción humana a una imagen dada. Este sistema será de utilidad para los analistas militares, obligados a ver y categorizar miles de fotos y horas de grabaciones en vídeo. El principio del sistema es el siguiente: la IA sigue el movimiento de los ojos y el rostro de la persona y hace coincidir sus expresiones faciales con las imágenes que esta persona mira. Si una imagen atrae la atención de la persona (lo cual significa que la expresión de su rostro o la dirección de su mirada cambian), el programa informático la traslada automáticamente a una carpeta temática. De este modo, durante las pruebas, se mostró a un soldado un conjunto de imágenes divididas en cinco categorías principales: barcos, pandas, frutos rojos, mariposas y candelabros. Se le pidió que contara únicamente las imágenes de la categoría que le interesara. Las imágenes desfilaban a un ritmo de una por segundo. La IA “llegó a la conclusión” de que el combatiente estaba interesado en la categoría “barcos” y copió esas imágenes en un archivo separado.


Dibujo realizado inicialmente para su publicación en Crisis in Zefra, relato ficticio de Karl Schroeder, entrevistado en este mismo número de El Correo.

En el teatro de operaciones

Pero la IA también puede ayudar a los militares en el combate. En Rusia, por ejemplo, se está finalizando actualmente el desarrollo de un avión de combate de quinta generación Su-57, que podría entrar en servicio para fin de año. El programa informático del ordenador de a bordo de este avión de caza contiene elementos de IA. De este modo, durante el vuelo, la aeronave analiza permanentemente el estado del aire, su temperatura, su presión y muchos otros parámetros. Si el piloto intenta efectuar una maniobra y el sistema “estima” que esta acción provocará una colisión, la orden del piloto es ignorada. Si el avión hace un trompo, el mismo sistema le indica al piloto cómo hacerlo ascender nuevamente y retomar el control.

Mientras tanto, Japón desarrolla su propio avión de combate de quinta generación, cuyo prototipo, el X-2 Shinshin (“Alma” en japonés), efectuó su primer vuelo en abril de 2016. Una amplia red de sensores, que analizarán el estado de cada elemento del avión y determinarán los daños sufridos, asegurará su “supervivencia”. Si, durante un combate, su ala o su cola resultaran dañadas, su sistema de control será reconfigurado para que la maniobrabilidad y velocidad del avión se mantengan prácticamente sin cambios. El ordenador del avión de combate japonés será capaz de predecir la hora exacta en que un elemento dañado dejará de funcionar completamente, de manera que el piloto pueda decidir continuar el combate o volver a la base.

En este sentido, la IA constituye una “bendición”, si es que se puede utilizar este vocablo para armas y sistemas de combate. Un programa complejo capaz de resolver en forma óptima un problema concreto diez veces más rápido que un ser humano no sólo podrá facilitar el trabajo de un avión de reconocimiento, de un operador de drones o de un comandante de un sistema de defensa aérea, sino también salvar vidas. Podrá acudir al rescate de personas que estén en peligro en un submarino (extinción de incendios a distancia en compartimentos abandonados por los humanos), de pilotos de aviones o de conductores de vehículos blindados siniestrados.

Robots asesinos

Su rapidez de análisis y su capacidad de aprendizaje hacen que la IA sea atractiva para los sistemas de combate. Los militares, aunque aún no lo admitan, probablemente ya sientan la tentación de crear sistemas de combate que puedan funcionar en el campo de batalla con total autonomía, es decir que puedan identificar un objetivo, abrir fuego sobre éste, desplazarse y elegir las trayectorias óptimas que les permitan protegerse.

Hace algunos años, las autoridades militares de Estados Unidos, Rusia, Alemania, China y otros países anunciaron que su objetivo no era la creación de sistemas de combate totalmente autónomos. Al mismo tiempo, los militares señalaron que es probable que se creen esos sistemas.

El año pasado, el Departamento de Defensa de Estados Unidos terminó de elaborar la “Tercera estrategia de compensación” (Third Offset Strategy) y comenzó a aplicarla. Este documento implica, entre otras cosas, el desarrollo activo de innovaciones técnicas y su empleo en los trabajos militares futuros.

El 1 de septiembre de 2017, el presidente ruso Vladimir Putin declaró, en una conferencia pública pronunciada en una escuela de Yaroslavl: “La inteligencia artificial representa el futuro no sólo de Rusia, sino de toda la humanidad. Ofrece enormes posibilidades, pero viene acompañada de amenazas que son difíciles de predecir en la actualidad. Los que tomen la delantera en este campo dirigirán el mundo”, declaró, antes de agregar que “sería altamente indeseable que alguien logre el monopolio. Por lo tanto, si nos convertimos en líderes en ese sector, compartiremos esas tecnologías con el mundo entero”. ¿Podemos por tanto deducir que no estamos al comienzo de una nueva era de la carrera de armamentos?

En la Tierra, un número de zonas cada vez mayor están protegidas de manera fiable por sistemas antiaéreos y antimisiles, controladas por sistemas satelitales y sin piloto, y patrulladas por buques y aviones. En las mentes de los militares, sólo los sistemas de combate con IA podrán, en caso de guerra, penetrar en esas zonas cerradas y operar en ellas con cierta libertad.

Existen ya sistemas de combate capaces de detectar y clasificar sus objetivos y de dirigir el lanzamiento de misiles antiaéreos, como por ejemplo, los sistemas de misiles tierra-aire S-400 en Rusia. El sistema estadounidense de información Aegis, que controla el armamento de las embarcaciones de guerra, funciona de la misma forma. A lo largo de la zona desmilitarizada, en la frontera con la República Popular Democrática de Corea, la República de Corea ha desplegado varios robots militares SGR-A1 encargados de la vigilancia. En modo automático, estos robots son capaces de abrir fuego sobre el enemigo, pero sin disparar contra las personas que tienen las manos en alto. Ninguno de estos sistemas es utilizado por los militares en modo automático.

Los últimos progresos realizados en el desarrollo de la IA permiten crear sistemas de combate que pueden desplazarse. De este modo, en Estados Unidos se diseñan actualmente aeronaves no tripuladas, que volarán detrás de aviones de combate pilotados por seres humanos y apuntarán, cumpliendo una orden, a objetivos aéreos o terrestres. El sistema de control de disparo de la futura versión del tanque ruso T-14, basado en la plataforma universal de combate montada sobre orugas Armata, será capaz de detectar los objetivos en forma autónoma y bombardearlos hasta la destrucción completa. En forma paralela, Rusia trabaja en una familia de robots sobre orugas que podrán participar en el combate con soldados humanos.

Para los ejércitos, todos estos sistemas deben cumplir varias funciones básicas y, en primer lugar, destruir objetivos enemigos con más eficacia y proteger la vida de sus propios soldados. Al mismo tiempo, aún no existen normas internacionales ni documentos legales que regulen el uso de sistemas de combate equipados con IA en una guerra. Ni las costumbres de guerra ni las convenciones de Ginebra definen cuáles sistemas con IA pueden ser utilizados en el combate y cuáles no. No existe tampoco una legislación internacional que permita determinar quiénes son los responsables del fallo de un sistema autónomo. Si un dron bombardea en forma autónoma a la población civil, ¿quién será castigado? ¿Su fabricante? ¿El comandante del escuadrón al que estaba asignado? ¿El Ministerio de Defensa? La cadena de posibles culpables es demasiado extensa y, como es bien sabido, cuando hay demasiados culpables, la culpa no es de nadie.

En 2015, el Future of Life Institute publicó una carta abierta firmada por más de 16.000 personas, alertando sobre las amenazas que esos sistemas de combate basados en IA suponen para la población civil, sobre el riesgo de una carrera de armamentos y, en definitiva, sobre el peligro de un desenlace fatal para la humanidad. La carta fue firmada, entre otros, por el empresario estadounidense y fundador de SpaceX y Tesla Elon Musk, el astrofísico británico Stephen Hawking (1942-2018) y el filósofo estadounidense Noam Chomsky. En agosto pasado, Elon Musk y un centenar de diseñadores de sistemas de robótica y de IA enviaron a la ONU una petición solicitando que se prohíba totalmente el desarrollo y las pruebas de armas ofensivas autónomas.

Estos expertos estiman que la creación de ejércitos de robots capaces de realizar hostilidades de forma autónoma redundará inevitablemente en la aparición, entre sus poseedores, de sentimientos de poder absoluto e impunidad. Además, cuando un ser humano se encuentra en una situación de conflicto, toma decisiones en las que intervienen, entre otras, sus actitudes morales, sentimientos y emociones. La observación directa del sufrimiento de los demás produce además un efecto disuasivo en los soldados, aun cuando, entre los militares profesionales, la compasión y la sensibilidad terminan por desaparecer. En el caso de la introducción generalizada de sistemas de combate autónomos, cuyos efectivos podrán ser dirigidos sólo con deslizar el dedo sobre la pantalla de una tableta desde otro continente, la guerra se volverá simplemente un juego, con víctimas civiles y militares que son sólo cifras en una pantalla.

 

Siga leyendo: 

La ONU versus SALA

Vasily Sychev

Experto en armamento y periodista, Vasily Sychev (Federación de Rusia) escribe principalmente para los diarios La Gaceta rusa, Experto, Lenta.ru y El Correo de la industria militar. También dirige las secciones “Armamento” y “Aviación” en el diario web de divulgación científica N+1.