Editorial

Hacia una ética de la investigación en inteligencia artificial a escala mundial

cou_03-18_dg_itw_02.jpg

Debemos impedir el uso indebido de la IA.

En estos últimos años los avances en materia de inteligencia artificial (IA) han sido espectaculares y dan lugar a inventos que nunca hubiésemos creído posibles. Ordenadores y robots son capaces de aprender a mejorar su trabajo e incluso de tomar decisiones ‒lo cual se realiza, obviamente, a través de un algoritmo y sin conciencia individual. Pero, aun así, no podemos dejar de formularnos algunas preguntas. ¿Una máquina puede pensar? ¿De qué es capaz la IA en el estado actual de su evolución? ¿Cuál es su grado de autonomía? ¿Qué sucede entonces con la decisión humana?

Más que una cuarta revolución industrial, la IA está provocando una revolución cultural. Esta tecnología está destinada, sin lugar a dudas, a transformar nuestro futuro, pero aún no sabemos de qué forma. Es por ello que fascina y asusta a la vez.

El Correo lo ha analizado y presenta al lector lo más importante de este nuevo objeto de investigación que se sitúa en la frontera de la informática, la ingeniería y la filosofía. De paso, pone las cosas en su lugar, ya que debe quedar bien claro que, en su estado actual, la IA no piensa. ¡Estamos muy lejos de poder descargar todos los elementos de un ser humano en un ordenador! Un robot obedece a una serie de rutinas que permiten su interacción con nosotros los humanos, pero, fuera del marco bien preciso dentro del cual debe interactuar, no puede entablar una verdadera relación social.

No obstante, algunas de las aplicaciones de la IA ya son cuestionables: recogida de datos que invaden la vida privada, algoritmos de reconocimiento facial que deben identificar conductas hostiles o están imbuidos de prejuicios raciales, drones militares y armas letales autónomas, etc. Los problemas éticos que la IA plantea y seguirá planteando en el futuro, con mayor gravedad aún, son numerosos.

Mientras que la investigación avanza rápidamente en lo que se refiere a los aspectos técnicos de la IA, no ha habido ningún adelanto en cuanto a sus aspectos éticos. Es verdad que muchos investigadores se preocupan por ello y algunos países iniciaron una reflexión seria sobre el tema, pero no existe hasta la fecha ningún marco legal para orientar la investigación futura a escala mundial. “Es nuestra responsabilidad llevar a cabo un debate universal e informado, a fin de entrar en esta nueva era con los ojos bien abiertos, sin sacrificar nuestros propios valores y poder lograr, si los Estados miembros lo desean, un conjunto común de principios éticos”, declara en este número de El Correo la Directora General de la UNESCO, Audrey Azoulay.

Es indispensable un instrumento normativo internacional para el desarrollo responsable de la IA: una tarea que la UNESCO aborda en estos momentos y que este número de El Correo trata de apoyar, proponiendo líneas de reflexión.