Gran angular

A nuestro servicio y no a nuestra costa

cou_03-18_ethics_01.jpg

¿Fin de la vida privada en la era digital? Obra del dibujante cubano Falco.

Nos dirigimos inexorablemente hacia un futuro automatizado y hacia una inteligencia artificial (IA) de posibilidades casi ilimitadas. Debemos sopesar obligatoriamente todas las implicaciones éticas de esta nueva tecnología y ocuparnos de los desafíos legales y sociales sin precedentes que puedan aparecer.

Tee Wee Ang y Dafna Feinholz (UNESCO)

A veces, las nuevas tecnologías nos obligan a preguntarnos qué hace al hombre. En todo caso, es cierto para la inteligencia artificial (IA), cuyas implicaciones potenciales son tan considerables que llaman a reflexión. Desde hace décadas, la IA ha venido atormentado nuestro imaginario colectivo y hoy aparece en nuestras vidas.

Los recientes progresos de la inteligencia artificial, principalmente en materia de aprendizaje automático (machine learning) y aprendizaje profundo (deep learning), muestran que estos sistemas pueden superar a los hombres en numerosos ámbitos, incluso en tareas que exigen una cierta dosis de razonamiento cognitivo. Por lo tanto, la IA puede ser una extraordinaria fuente de progreso y de beneficios para la humanidad. Sin embargo, también podría sacudir los pilares socioeconómicos y políticos de la sociedad.  

Antes de preguntarnos por las implicaciones éticas de la IA, debemos primero aclarar en qué consiste en la actualidad. Cuando hablamos de IA, generalmente nos referimos a “la IA estrecha” o “IA débil”, diseñada para llevar a cabo una tarea específica como, por ejemplo, analizar y agilizar el tráfico o recomendar productos en línea a partir de compras anteriores. Esta IA débil ya existe, pero va a hacerse más compleja y a calar aún más en nuestra vida cotidiana.

No nos referimos aquí a lo que llamamos la “IA fuerte” o “IA general”, tal y como la describen las novelas y películas de ciencia-ficción. Esta IA sería supuestamente capaz de llevar a cabo toda la gama de actividades cognitivas humanas. Incluso, según algunos expertos, podría acceder a un relativo grado de «conciencia». Pero aún estamos lejos de un consenso en cuanto a la viabilidad y a las perspectivas de la aplicación de tal inteligencia artificial.

Una recopilación de datos infinita

Tanto el aprendizaje automático como el profundo exigen una gran cantidad de datos, pasados y presentes, recopilados en tiempo real para que el sistema de IA pueda “aprender” de su “experiencia”. Además, su desarrollo necesita infraestructuras que le permitan realizar sus tareas u objetivos a partir de lo que haya aprendido. Por lo tanto, nuestra reflexión sobre las implicaciones éticas de la IA debe tener en cuenta el medio tecnológico complejo que necesita para funcionar. Esto engloba la recopilación permanente de macrodatos (big data), sacados del Internet de las cosas; su almacenamiento en la nube (cloud); su utilización para alimentar el proceso de “aprendizaje” de la IA y la puesta en funcionamiento de análisis o actividades de inteligencia artificial en ciudades inteligentes, vehículos autónomos, robots, etc.

Cuanto más complejo se vuelve el desarrollo tecnológico, más se complican las preguntas éticas que suscita. Y si los principios éticos permanecen inmutables, nuestra manera de abordarlos podría cambiar de manera radical, con riesgo, seamos conscientes o no, de ponerlos gravemente en cuestión.

Por ejemplo, nuestros conceptos de vida privada, de confidencialidad y de autonomía podrían cambiar por completo. A través de aplicaciones o dispositivos llamados smart (inteligentes, astutos), convertidos en instrumentos de comunicación de redes sociales como Facebook o Twitter, divulgamos “libre” y voluntariamente nuestros datos personales, sin comprender por completo quién usará esos datos y para qué. Esta información se transmite más tarde a sistemas de IA, desarrollados principalmente por el sector privado. Estos datos permanecen vinculados a nosotros. De esta manera, la información relativa a nuestras preferencias y hábitos puede utilizarse para crear modelos de comportamiento. Dichos modelos permiten que la IA nos mande, por ejemplo, mensajes de carácter político, nos venda aplicaciones comerciales o, incluso, almacene información relativa a nuestros cuidados médicos.

Lo mejor y lo peor

¿Será el fin de nuestra vida privada? ¿Qué hay de la seguridad y de la vulnerabilidad de datos frente a las acciones de los piratas informáticos? ¿No podría el Estado adueñarse de estas para controlar a la población, en detrimento probablemente de los derechos humanos individuales? En un entorno en donde la IA vigile nuestras preferencias constantemente y las utilice para proponernos diferentes opciones, ¿no se corre el riesgo de limitar nuestra libertad de elección y nuestra creatividad?

Otra pregunta importante: ¿los datos usados por la IA para aprender no corren el riesgo de estar moldeados por ideas y prejuicios recibidos? ¿No llevarían estos datos a la IA a tomar decisiones que discriminen o estigmaticen? Esto haría vulnerables a los sistemas de IA encargados principalmente de las relaciones con el público o de la distribución de servicios sociales. Debemos ser conscientes de que ciertos datos, como los producidos en Internet, contienen información que refleja lo mejor y lo peor de la humanidad. Por ello, no podemos fiarnos solo de la IA para sacar conclusiones a partir de esos datos sin correr riesgos a nivel ético. Una intervención humana directa es, entonces, imprescindible.

¿Podríamos enseñar un comportamiento ético a la IA? Para algunos filósofos, hay experiencias – principalmente de orden ético y estético – que son inherentes al ser humano y, por lo tanto, no programables. Otros creen que, si la moral puede ser racional, puede programarse, pero que conviene respetar la libertad de elección. Hoy en día, no hay consenso sobre si la ética y la moral pueden enseñarse a los hombres basándose únicamente en la razón. ¡Cómo iba a haber un consenso cuando se trata de enseñárselas a la IA! Y aún imaginando que una inteligencia artificial pueda ser algún día programada para ser ética, ¿qué ética tendría? ¿La de sus desarrolladores? Debemos tener en cuenta que el desarrollo de la IA está, principalmente, en manos del sector privado, cuyas ideas sobre la ética pueden no coincidir con las que prevalecen en la sociedad.

Para que la IA pueda trabajar a nuestro servicio, y no a nuestra costa, debemos embarcarnos en un debate de fondo que tenga en cuenta los puntos de vista éticos de todos los implicados. Y, frente a los cambios que podría provocar la sociedad, debemos vigilar el marco ético en el que se enmarca su desarrollo futuro teniendo en cuenta la cuestión, más amplia, de la responsabilidad social.

 

Dafna Feinholz

Doctora en Psicología y Bioética, Dafna Feinholz (México) dirige la sección de Bioética y Ética de la Ciencia en la UNESCO. Fue secretaria general de la Comisión Nacional de Bioética de México.

Tee Wee Ang

Especialista del Programa de la sección de Bioética y Ética de la Ciencia en el seno de la UNESCO, Tee Wee Ang (Malasia) ha trabajado en ingeniería de diseño y de gestión, antes de entrar en la Organización en 2005.