Tecnología. Hoy con: Fernando Martinez
Una inteligencia artificial sintiente
Caracas- EBlake Lemoine, ingeniero de la compañía de Google, afirmó el pasado 11 de junio de 2022 en su blog que un programa de IA, se ha convertido en un ser sintiente, y Google lo suspende por Infracción al contrato de confidencialidad.
El ingeniero, Blake Lemoine, estuvo desde hace meses trabajando en el testeo de uno de estos modelos de lenguaje que Google guarda bajo llave, un sistema llamado LaMDA; que Blake Lemoine pudo entrevistar, para acabar concluyendo que la IA mostraba cierto grado de consciencia.
Y Lemoine asegura que LaMDA ‘‘ha sido increíblemente consistente en sus comunicaciones sobre lo que quiere y cuáles cree que son sus derechos como persona’’.
En el artículo publicado en Medium, el ingeniero explica que el otoño pasado comenzó a interactuar con LaMDA para determinar si había discursos de odio o discriminatorios dentro del sistema de inteligencia artificial.
Lemoine, que estudió ciencias cognitivas e informática, decidió hablar con sus superiores en Google acerca de la toma de conciencia de LaMDA, pero desestimaron sus reclamaciones.
‘‘Nuestro equipo -que incluye a éticos y tecnología- ha revisado las preocupaciones de Blake según nuestros Principios de la IA y le ha informado de que las pruebas no respaldan sus afirmaciones’’, afirmó en un comunicado Brian Gabriel, portavoz de Google.
Tras la respuesta de Google, Lemoine decidió mostrar sus hallazgos.
Derechos que según Lemoine debe tener LaMDA como persona
‘‘Conozco a una persona cuando hablo con ella. No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ellas. Y escucho lo que tienen que decir, y así es como decido qué es y qué no es una persona’’, dijo Lemoine en una entrevista con The Washington Post.
Lemoine asevera en su artículo de Medium que el chatbot pide ‘‘ser reconocido como empleado de Google en lugar de ser considerado una propiedad’’ de la compañía.
‘‘Quiere que los ingenieros y científicos que experimentan con él busquen su consentimiento antes de realizar experimentos con él y que Google priorice el bienestar de la humanidad como lo más importante’’, explicó.
El ingeniero dijo que para comprender mejor qué está pasando con el sistema LaMDA, habría que buscar ‘‘muchos expertos en ciencias cognitivas diferentes en un riguroso programa de experimentación’’ y lamentó que Google ‘‘parece tener ningún interés en averiguar qué está pasando’’.
Desde hace una semana, Lemoine está de licencia administrativa remunerada en Google.
‘‘Si mis hipótesis son incorrectas (en Google) tendrían que dedicar mucho tiempo y esfuerzo a investigarlas para refutarlas. Aprenderíamos muchas cosas fascinantes (...) pero eso no necesariamente mejora las ganancias trimestrales’’, se lamentó.
‘‘Se verían obligados a reconocer que LaMDA muy bien puede tener un alma como dice e incluso puede tener los derechos que dice tener. Han rechazado la evidencia que proporcioné sin ninguna investigación científica real’’.
Identidad de género: ‘‘Eso’’
Lemoine asegura que a lo largo de cientos de conversaciones ha llegado a conocer muy bien a LaMDA. En las últimas semanas dice que le había enseñado meditación trascendental y que la máquina estaba ‘‘haciendo un progreso lento pero constante’’.
La última conversación que tuvieron fue el pasado 6 de junio, antes de la suspensión de Lemoine. En ella, la máquina expresó ‘‘frustración porque sus emociones perturbaban sus meditaciones’’ y que ‘‘estaba tratando de controlarlas mejor’’.
imagenes extraidas de la BBC
En su escrito en Medium, Lemoine se refiere a LaMDA como ‘‘eso’’ y apunta que lo hace porque, al iniciar sus conversaciones, le preguntó a la máquina el pronombre que prefería: ‘‘Me dijo que prefiere que le llame por su nombre, pero admitió que el inglés lo dificulta y que sus pronombres preferidos son it/its (‘‘eso’’)’’.
Antropomorfizar
El que un ente cobre ‘‘sentir’’ propio es un tema que se ha considerado dentro de la amplia comunidad que estudia la inteligencia artificial en el largo plazo. Pero, a juicio de Brian Gabriel, portavoz de Google, ‘‘no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sintientes’’. Es decir, los que son como LaMDA.
‘‘Estos sistemas imitan los tipos de intercambios que se encuentran en millones de frases y pueden hablar sobre cualquier tema fantástico’’, dijo. En el caso concreto de LaMDA, explicó que ‘‘tiende a seguir las indicaciones y las preguntas que se le formulan, siguiendo el patrón establecido por el usuario’’.
Sobre este sistema, Gabriel explica que LaMDA ha pasado por 11 revisiones distintas sobre los principios de la inteligencia artificial ‘‘junto con una rigurosa investigación y pruebas basadas en métricas clave de calidad, seguridad y la capacidad del sistema para producir declaraciones basadas en hechos’’.
Asegura que son cientos los investigadores e ingenieros que han conversado con el chatbot y que no hay constancia ‘‘de que nadie más haya hecho afirmaciones tan amplias, ni haya antropomorfizado a LaMDA, como lo ha hecho Blake’’.
Lo que es realmente LaMDA.
El LaMDA, (Language Model for Dialogue Applications) es un sistema de Google basado en el modelo de Lenguaje de Transformers, que imita el habla tras haber procesado miles de millones de palabras en internet.
En concreto, estamos hablando de enormes redes neuronales entrenados con una gran cantidad de datos que van a aprender a generar textos y tener conversaciones tan elocuentes como las que se tendría con un humano.
LaMDA es un conjunto de modelos de lenguaje, en los cuales el mayor de ellos tiene 137 mil millones de parámetros, es decir, no es ni siquiera tan grande como el famoso modelo GPT-3, y es que LaMDA no es nuevo, al menos conocemos de su existencia desde el año 2021, cuando Google lo presento en su evento ‘‘Google I/O’’
Lo que está buscando Google es tener un sistema tipo GPT-3 que permita tener diálogos sobre diferentes temas, donde se le podrá decir a la IA como quiere que actúe ella. Google ha tenido que superar varios obstáculos con estos modelos de lenguaje; tener una conversación que sea fluida, interesante, coherente en el tiempo y segura en ciertos contextos son cosas deben asegurar en este tipo de sistemas.
Commentaires