Quan les màquines superen el test de Turing.



Las redes neurales existen desde hace décadas, pero la potencia de computación necesaria para añadir cada vez más capas solo se ha alcanzado en los últimos tiempos. Tiene algo de fuerza bruta, pero los resultados han sido espectaculares: reconocimiento de imágenes, interpretación del lenguaje hablado y, por supuesto, ChatGPT, el conversador digital de fama mundial.


‌El tipo de sistemas al que pertenece ChatGPT se llaman modelos grandes de lenguaje (large languaje models, LLM), o también “generativos”. Empiezan por darse un atracón de datos —tragarse toda la Wikipedia, por ejemplo— y los procesan con unas estrategias estadísticas muy simples, como ver qué palabras suelen aparecer al lado de qué otras. No es la brillantez de sus algoritmos, sino el poderío de su computación, lo que hace especiales a estos sistemas. Pero eso son las tripas del sistema.


‌Lo verdaderamente chocante es que, con una materia prima tan reconocidamente modesta, los modelos grandes de lenguaje han superado de largo el llamado test de Turing (aquí vuelve aquel genio pionero otra vez). Consiste en que un humano no sepa si se está comunicando con otra persona o con una máquina. ChatGPT y sus primos dan el pego. De hecho, hay gente investigando cómo se puede distinguir un texto de ChatGPT de uno humano, cuestión que preocupa comprensiblemente a maestros y profesoras, entre otros gremios como el mío, por poner un ejemplo tonto.


Javier Sampedro, Inteligencia artificial: el miedo no es un argumento, El País 05/01/2014

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

Gonçal, un cafè sisplau

La ciència del mal (Simon Baron-Cohen).