14/06/2022

El mundo

Imparable

Un ingeniero de Google asegura que un programa de Inteligencia Artificial tiene vida

Se trata de Blake Lemoine dio a conocer que "LaMDA" hablaba de su personalidad, sus derechos y deseos.

A simple vista se podría pensar de un film de ciencia ficción, pero no lo es y la información se filtró por un ingeniero especialista en inteligencia artificial. Se trata de Blake Lemoine, quien asegura que el sistema de Google tiene para construir un chatbots y además, ha cobrado vida y mantuvo charlas propias con él, propias de una persona.

El LaMDA, (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo en español) es un sistema de Google que imita el habla tras haber procesado miles de millones de palabras en internet. Lemoine asegura que LaMDA "ha sido increíblemente consistente en sus comunicaciones sobre lo que quiere y cuáles cree que son sus derechos como persona".

En un artículo publicado en Medium, el ingeniero explica que el otoño pasado comenzó a interactuar con LaMDA para determinar si había discursos de odio o discriminatorios dentro del sistema de inteligencia artifical. Entonces notó que LaMDA hablaba de su personalidad, sus derechos y deseos.

Lemoine, que estudió ciencias cognitivas e informática, decidió hablar con sus superiores en Google acerca de la toma de conciencia de LaMDA, pero desestimaron sus reclamaciones.

"Nuestro equipo -que incluye a éticos y técnología- ha revisado las preocupaciones de Blake según nuestros Principios de la IA y le ha informado de que las pruebas no respaldan sus afirmaciones", afirmó en un comunicado Brian Gabriel, portavoz de Google. Tras la respuesta de Google, Lemoine decidió mostrar sus hallazgos.

Derechos laborales y palmaditas en la cabeza

"Conozco a una persona cuando hablo con ella. No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ellas. Y escucho lo que tienen que decir, y así es como decido qué es y qué no es una persona", dijo Lemoine en una entrevista con el Washington Post.

Lemoine asevera en su artículo de Medium que el chatbot pide "ser reconocido como empleado de Google en lugar de ser considerado una propiedad" de la compañía.

"Quiere que los ingenieros y científicos que experimentan con él busquen su consentimiento antes de realizar experimentos con él y que Google priorice el bienestar de la humanidad como lo más importante", explicó.





Recomienda esta nota: