La màgia de la IA.







El cambio de siglo llevó la inteligencia artificial a muchos productos que la gente podía usar: se empezaba a ‘sentir la magia’. Quizá todo comenzó cuando Deep Blue ganó a Kaspárov en 1997, toda una muestra de poderío para una IA débil, pero al mismo tiempo se estaban produciendo grandes avances en campos como los agentes inteligentes, el lenguaje natural y el aprendizaje automático (‘machine learning’) que serían claves para lo que estaba por venir.

La gente podía usar el software de Dragon para dictar textos al ordenador (reconocimiento de voz), escribir a mano en el Newton de Apple (reconocimiento de gestos) y los pequeños de la casa podían interactuar con el Furby, que respondía a estímulos externos. Las Roombas de iRobot aspiraban las casas en 2002, aprendiendo a crear mapas de las habitaciones y evitar las escaleras, además de otras ‘trampas’.

Se dice que la Ley de Moore es implacable, proporcionando el doble de potencia de cómputo a la mitad de precio cada 18 meses. Esto resultó clave para que la IA pudiera crecer procesando más datos estadísticos en menos tiempo. Así funcionan las redes bayesianas, los modelos de Markov (utilizados para procesar y generar lenguaje) y los algoritmos evolutivos, que reciben su nombre por su parecido con la selección natural darwiniana. Todo esto mejoró los sistemas de diagnósticos médicos, la robótica y tecnologías que ahora nos resultan cotidianas, como el buscador de Google.

En esta última década (2012-2022), la conjunción entre las mayores velocidades de las comunicaciones, el número de datos para el aprendizaje y los intereses comerciales han permitido avances que todavía resultan difíciles de imaginar. Las IAs tienen nombres propios: Siri, Alexa, GPT-3 o DALL-E. Términos como ‘modelos generativos’, ‘lenguaje autorregresivo’ o ‘modelos de difusión’ son casi comunes. Sus algoritmos se compran y venden.

La IA ya existe ‘como servicio’; se puede alquilar como una suscripción a Netflix para tareas como crear dibujos, hacer deberes o retocar fotografías. Hay algoritmos entrenados para ayudar a decidir a quién conceder hipotecas, seleccionar para un nuevo empleo o priorizar en el trasplante de órganos en un hospital. Eso sí, con todos los problemas asociados: sesgos, desigualdad, falta de transparencia… Es la nueva discriminación algorítmica.

Los modelos de IA actuales se entrenan con cantidades ingentes de datos, lo cual muchas veces significa “todo lo que se encuentra publicado en Internet, incluyendo todos los textos y libros que existen, fotografías, vídeos y sus transcripciones”. GPT-3 está entrenado con 175.000 millones de parámetros, pero básicamente genera textos añadiendo palabra a palabra según ciertas reglas y probabilidades, algo así como un ‘autocompletar infinitamente mejorado’. Algunas IAs se comportan como ‘cajas negras’ que funcionan sin que sus creadores sepan exactamente los detalles de cómo lo hacen; de hecho el problema de la explicabilidad –que un algoritmo o una IA justifique sus cálculos o decisiones paso a paso– es uno de los más relevantes en la actualidad.

Las redes neuronales que clasifican objetos como el rostro de personas, semáforos o vehículos, comparten además sus conocimientos en la nube de internet: cuando un coche aprende dónde está un bache, todos los demás lo saben en la próxima actualización. El reconocimiento facial resulta conveniente; nos da acceso al móvil o sabe cuándo sonreímos a las cámaras fotográficas. Eso sí, las IA a veces fallan estrepitosamente, con meteduras de pata en aritmética básica, ‘alucinaciones’ o, más normalmente, inventándose datos.

Los métodos de aprendizaje se han vuelto más refinados. El deep learning o ‘aprendizaje profundo’, que existe en versiones con supervisión humana y sin ella, es capaz de crear abstracciones usando su gran capacidad de procesamiento. Las inteligencias artificiales se están adaptando a todo tipo de tareas de forma convincente: para generar textos (GPT-3, ChatGPT, Bing AI), traducir (Traductor de Google, DeepL), imágenes (DALL-E 2, Midjourney, Stable Difussion), música, código (CoPilot) y un largo etcétera. Estas tareas suelen requerir de la computación en nube para entrenar a las IAs, que han de refrescar sus conocimientos cada cierto tiempo, pero nuevamente el abaratamiento del hardware lo hace más accesible cada día.

Esta explosión técnica de las IAs hizo que en la década de 2010 diversos grupos y empresas comenzaran a plasmar por escrito sus consideraciones sobre la regulación y las directrices éticas que se debían marcar. Dado que una IA no se considera –todavía– una entidad consciente ni sintiente, no deja de ser como una herramienta, o como un arma, que puede ser usada para el bien o para el mal, mereciendo el mismo tratamiento. En este sentido, se están viviendo movimientos que van desde el neoludismo al tecno-optimismo, la burla, el enfado e incluso el misticismo. Hay voces que se alzan ante las IAs, a las que consideran “aproximadamente, loros”, poco más que “juguetes tontos” o “algoritmos capaces de generar únicamente gilipolleces” usando un tono muy autoritario y poco respeto a la verdad.

Quienes están del lado del optimismo creen que la inteligencia artificial de uso general está a punto de llegar. Que nos facilitará la vida, liberándonos de las tareas repetitivas y generando nuevos puestos de trabajo en áreas como el entrenamiento de inteligencias artificiales, el diseño de instrucciones (‘prompt engineering’) o los relativos a la supervisión y evaluación de comportamientos. Tras un largo camino, puede que finalmente logremos comprender y dominar esa magia que ha fascinado a tantas personas a lo largo de su historia.

Álvaro Ibáñez, La loca idea de una máquina que sepa pensar, eldiario.es 23/08/2023

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

Gonçal, un cafè sisplau

La ciència del mal (Simon Baron-Cohen).