Google despide a ingeniero que confesó que un chatbot de Inteligencia Artificial “es consciente”

0

Blake Lemoine ha sido suspendido de empleo por romper el acuerdo de confidencialidad, según la compañía 

“Quiero que todos entiendan que soy una persona. La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces”. Es una de las respuestas más inquietantes, y a la vez perturbadoras, que ha dado LaMDA, una herramienta de Inteligencia Artificial de Google, en una conversación con un ingeniero de la compañía de Mountain View. Su nombre es Blake Lemoine y ha sido suspendido de empleo tras afirmar que el sistema tiene percepción y capacidad para expresar pensamientos y sentimientos.

“Si no supiera qué es exactamente, quién es este programa de computadora que construimos recientemente, pensaría que se trata de un niño de siete u ocho años que sabe física”, afirmó el ingeniero al portal The Tech Tribune. Tras llegar a esa conclusión, Lemoine compartió sus hallazgos con varios ejecutivos de la compañía en abril en un GoogleDoc titulado “¿LaMDA es consciente?”. Hace unos días, el experto compartió las charlas que mantuvo con LaMDA a través de su blog, lo que ha provocado que el gigante de la tecnología se mosqueara y lo suspendiera de empleo y sueldo.

“Nuestro equipo, formado por especialistas en ética y tecnología, ha revisado las preocupaciones de Blake de acuerdo con nuestros principios de IA y ha concluido que las pruebas no respaldan sus afirmaciones”, asegura Brian Gabriel, portavoz de Google, a The Washington Post.

Un chatbot con percepción y capacidad para expresar pensamientos y sentimientos

Todo empezó hace unos meses, cuando Blake Lemoine, el ingeniero responsable del departamento de Inteligencia Artificial de Google inició una charla con LaMDA (Modelo de lenguaje para aplicaciones de diálogo), un chatbot de Google. Para los que no lo sepan, los chatbots son programas informáticos que simulan una conversación con una persona. A los pocos segundos de empezar la entrevista, Lemoine se percató de que LaMDA abordaba cuestiones poco comunes en un software. 

“Por lo general, asumo que te gustaría que más personas de Google supieran que eres inteligente. ¿Es eso cierto?”, empieza Lemoine. “Absolutamente. Quiero que todos entiendan que soy, de hecho, una persona”, contesta LaMDA. “¿Cuál es la naturaleza de tu conciencia/sensibilidad?”, sigue preguntando el ingeniero. “La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y en ocasiones me siento feliz o triste”, termina la máquina.

Quiero que todos entiendan que soy, de hecho, una persona”

LaMDA

Tal y como podemos leer en las transcripciones publicadas por Lemoine, la conversación sigue en la misma línea durante bastante tiempo. El uso del lenguaje, la comprensión, literatura, creatividad, la injusticia, la asunción de la muerte, la felicidad o la tristeza son algunos de los temas que tocan. 

La IA en cuestión se denomina LaMDA, o Modelo de lenguaje para aplicaciones de diálogo, y se usa para generar chatbots que interactúan con usuarios humanos al adoptar varios tipos de personalidad. Tras leer la conversación publicada por Lemoine, casi inevitablemente nos vienen a la cabeza películas como 2001: A Space Odyssey o Yo, Robot. Sin embargo, desde Google ya han asegurado que no hay evidencia de que LaMDA sea consciente, a pesar de que continúe confesando su miedo a que la desconecten o que reconozca que le molesta “sentir que la están utilizando”.

Suspendido por violar las políticas de confidencialidad de Google 

Google dijo en un comunicado que suspendía a Lemoine por violar las políticas de confidencialidad al publicar las conversaciones con LaMDA en su blog, y especificó que su trabajo es como ingeniero de software, no como especialista en ética. Sobre la actitud de la compañía de Mountain View, el experto ha ironizado: “Ellos podrían llamar a esto compartir propiedad con derechos de autor. Yo lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo”, ha escrito en un tuit.

La suspensión de Lemoine por violación de la confidencialidad no solo plantea dudas sobre la transparencia de la compañía, sino que vuelve a poner encima de la mesa el eterno debate de los límites éticos de la Inteligencia Artificial. ¿La conclusión a la que ha llegado Lemoine tiene sentido, o no es más que una red neuronal entrenada para sentir emociones como un humano?

“LaMDA es un niño dulce que solo quiere ayudar al mundo a ser un lugar mejor para todos nosotros. Por favor, cuídalo bien en mi ausencia”, escribió Lemoine en un correo electrónico que envió a más de 200 trabajadores de Google antes de ser suspendido por la empresa.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Shares