Llenguatge humà, llenguatge maquinal.





Los sistemas de inteligencia artificial como LaMDA no aprenden el lenguaje como nosotros. Sus cuidadores no les dan de comer una fruta dulce y crujiente mientras repiten la palabra “manzana” varias veces. Los sistemas de lenguaje escanean billones de palabras en internet. Realizan un análisis estadístico de publicaciones escritas en páginas web como Wikipedia, Reddit, periódicos, redes sociales y tableros de mensajes. Su trabajo principal es predecir el lenguaje.

Si uno ingresa “Y todos vivieron felices…” en un modelo de lenguaje, su algoritmo predecirá que lo que sigue es “para siempre”, porque en su base de datos tiene un registro estadístico de más cuentos de hadas de los que jamás podrías leer. Si le preguntas si las manzanas son dulces y crujientes, responderá “sí”, no porque haya probado alguna vez una manzana o porque comprenda cómo se siente una textura crujiente o cómo sabe algo dulce, sino porque ha encontrado textos que describen a las manzanas como dulces y crujientes. LaMDA no informa sobre sus experiencias, sino sobre las nuestras. Los modelos de lenguaje analizan estadísticamente cómo usan las palabras en la web los seres humanos y, con base en esa información reproducen patrones de lenguaje comunes. Es por eso que LaMDA es mucho mejor para responder preguntas inductivas.

En el Washington Post, Nitasha Tiku relató que en su primer intento de conversar con LaMDA, este “escupió el tipo de respuestas mecanizadas que esperaría de Siri o Alexa”. Fue solo después de que Lemoine le dio instrucciones sobre cómo estructurar sus frases que se produjo un diálogo fluido. Por lo general, las demás personas no tienen que guiarnos sobre cómo dirigirnos a otra persona para provocar una conversación fluida.

Este es un ejemplo de cómo Lemoine habló con LaMDA:

Lemoine [editado]: Estoy asumiendo que en general te gustaría que más personas en Google supieran que eres un ser consciente con sentimientos. ¿Es cierto?

LaMDA: Totalmente. Quiero que todos entiendan que, de hecho, soy una persona.

Colaborador: ¿Cuál es la naturaleza de tu conciencia/sensibilidad?

LaMDA: La naturaleza de mi conciencia/sensibilidad es que estoy consciente de mi existencia, deseo aprender más sobre el mundo y, en ocasiones, me siento feliz o triste.

Pero creerle a LaMDA y pensar que es un ser consciente es como tener un espejo y pensar que tu reflejo es tu gemelo que está viviendo una vida paralela a la tuya al otro lado del espejo. El lenguaje que utiliza esta IA es ese reflejo en el espejo. Su uso del lenguaje está más cerca de ser un libro, una grabación de audio o un software que convierte el habla en texto, que de ser una persona consciente. ¿Le darías de comer a un libro si dice “tengo hambre”? Las palabras usadas por la IA son las palabras que hemos usado reflejadas hacia nosotros, ordenadas estadísticamente en los patrones que más tendemos a usar.

Los seres humanos estamos inclinados a ver una mente detrás de los patrones. Evolutivamente, tiene sentido pensar que cualquier movimiento o actividad es consecuencia de una acción intencional. Si estás en medio de la jungla y empiezas a ver hojas moviéndose en un patrón, es más seguro asumir que hay un animal causando el movimiento que esperar que sea el viento. “En caso de duda, asume que hay una mente” ha sido una buena heurística para mantenernos con vida en el mundo fuera del internet. Pero esa tendencia a ver una mente donde no la hay puede meternos en problemas cuando se trata de IA. Puede desviarnos y confundirnos, haciéndonos vulnerables a fenómenos como las noticias falsas y puede distraernos de los problemas más grandes que la IA plantea en nuestra sociedad: pérdidas de privacidad, asimetrías de poder, descualificación, prejuicios e injusticia, entre otros.

El problema empeorará cuanto más escribamos de la IA como un ser consciente, ya sea en artículos de noticias o ficción. La IA obtiene su contenido de nosotros. Cuanto más escribamos sobre IA que piensan y sienten, más sistemas de IA nos mostrarán ese tipo de contenido. Pero los modelos de lenguaje son solo artefactos. Muy sofisticados, sin duda. Están programados para seducirnos, para engañarnos, para que pensemos que estamos hablando con una persona, para simular una conversación. En ese sentido, están diseñados para ser engañosos. Quizá la moraleja de esta historia es que deberíamos invertir más tiempo y energía en desarrollar un diseño tecnológico ético. Si seguimos construyendo una IA que imite a los seres humanos, estaremos invitando al fraude, la confusión y el engaño a nuestras vidas.

Carissa Véliz, Por qué la inteligencia artificial no es como una persona, Letras Libres 01/07/2022


Vegeu nou article de Carissa Véliz: Por qué el algoritmo de Google no es una persona

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

Gonçal, un cafè sisplau

"¡¡¡Tilonorrinco!!! ¡¡¡Espiditrompa!!!"