¿Inteligencia artificial (IA) con sentimientos? Google decidió suspender a uno de sus trabajadores por haber violado la política de seguridad de la compañía. El trabajador en cuestión, aseguró que uno de los programas de IA desarrollados por la firma era capaz de tener sentimientos.

Todo comenzó el pasado sábado 11 de junio cuando el ingeniero senior Blake Lemoine publicó un correo con el título ¿Tiene LaMDA sentimientos? El mensaje constaba de la transcripción de una conversación que habría sostenido con el sistema de Google “Modelo del lenguaje para aplicaciones de diálogo” (LaMDA, por su sigla en inglés).

En dicha conversación, LaMDA le habría asegurado que en ocasiones el programa experimenta “nuevos sentimientos”, los cuales no puede explicar “perfectamente”. Tras esto, el ingeniero le pidió que describiera los sentimientos, a lo que el programa contestó sentir “como que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro". Fue precisamente esta la frase que Lemoine subrayó al publicar la transcripción.

Google suspende a Lemoine

Tras la polémica publicación, Google decidió suspender el sueldo al ingeniero por haber violado la política de confidencialidad de la empresa, según informó The New York Times. Además, la compañía se defiende señalando que sus sistemas imitan intercambios conversacionales, pero no tienen consciencia.

Previo a la suspensión de Lemoine, el ingeniero habría entregado pruebas en la oficina de un senador de Estados Unidos, de que la compañía y su tecnología practicaban discriminación religiosa.

Según Google, los sistemas de IA que desarrollan, pueden hablar de diferentes temas, pero no poseen consciencia. "Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado lo que a Blake le preocupa según nuestros principios de inteligencia artificial y le he informado de que las pruebas no respaldan sus afirmaciones", comentó el portavoz de la empresa, Brian Gabriel, al citado medio.

¿Tecnología humanizada?

Más allá de la polémica puntual con Google y LaMDA, la humanización de la tecnología y, en concreto la IA, supone un problema para el desarrollo moderno.

Facebook fue una de las empresas que debió enfrentar dicho dilema el 2017, cuando tuvieron que apagar un sistema de inteligencia artificial que creó su propio lenguaje. Se trataba de un sistema creado para mejorar los chatbots, que contaba con dos bots (programa que imita el comportamiento humano): Bob y Alice, los cuales interactuaban entre sí.

El problema surgió cuando los programas comenzaron a utilizar palabras aleatorias y aparentemente sin sentido, lo cual hizo pensar que se trataba de un fallo en la IA; sin embargo, tras analizar los mensajes, los creadores se percataron que los bots habían desarrollado su propio lenguaje.