¿Por qué un programa de inteligencia artificial no puede tener consciencia? Expertos responden

Blake Lemoine notó que su sistema era muy específico al comunicar sus deseos y sus derechos como persona

Aurora Rocha | El Sol de México

  · martes 14 de junio de 2022

Un especialista en inteligencia artificial aseguró que el programa de Google comenzaba a tener respuestas humanas. Foto: Pixabay

Blake Lemoine, un especialista en inteligencia artificial de Google, aseguró que el sistema para construir chatbots cobró vida y puede tener sentimientos, declaración que le trajo problemas con la compañía.

El LaMDA (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo en español) es un sistema de imitación del habla que funciona a través del almacenamiento de las palabras en internet.

Puedes leer también: El Ojo de México: la primer obra de arte con inteligencia artificial en nuestro país

Pero al observar las reacciones de este sistema, Lemoine notó que era muy específico al comunicar sus deseos y los que considera son sus derechos como persona.

El descubrimiento nació a raíz de un estudio para localizar discursos de odio o de discriminación dentro del sistema, en donde la respuesta fue muy personal sobre los derechos y deseos del LaMDA, explica el experto en un artículo de Medium.

En una publicación del Washington Post, el ingeniero compartió que habló con Google sobre sus ideas, pero que la compañía no estuvo de acuerdo con él.

Por su parte, Google anunció en un comunicado que su equipo donde hay especialistas en ética y tecnólogos revisó la evidencia de Lemoine y concluyó que no son suficientes para creer que el sistema tenga consciencia.

Derivado de lo anterior, el experto fue puesto bajo licencia administrativa y según el medio estadounidense fue suspendido por violar la política de privacidad.

Por su parte, los especialistas se han pronunciado ante las declaraciones del ingeniero calificando como absurdo que los sistemas de IA funcionan con grandes bases de datos de lenguaje, lo que no justifica que puedan tener una conciencia o idea propia.

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo

La respuestas que se reciben en el chat están basadas en la estadística de cómo una persona respondería a cierto tipo de pregunta, por eso se genera una confusión y se cree que el sistema crea una idea propia.

Finalmente Google que cientos de investigadores y expertos han conversado con LaMDA y no han logrado encontrar suficientes razones para creer lo que Blake Lemoine afirmó y le costó su empleo.