Error humà vs error IA





La IA ha tenido bastante éxito en imitar nuestra aparente racionalidad, pero aún no logra copiar lo que mejor sabemos hacer: equivocarnos. Un estudio publicado a fines de junio por investigadores del Instituto de Tecnología de Massacusetts y las universidades de Harvard y de Chicago, propone llamar a ese tipo de fallos, “comprensión Potemkin”, en alusión al mito ruso (nunca confirmado) sobre una aldea falsa que el político Gregorio Potemkin habría montado para contentar a la emperatriz Catalina la Grande, en el siglo XVIII. 

“Si bien teóricamente existen muchas maneras en que los humanos podrían malinterpretar un concepto, en la práctica solo un número limitado de ellos ocurre. Esto se debe a que las personas lo malinterpretan de forma estructurada”, sostiene el artículo. El error humano sigue patrones, aunque sea consecuencia de un equívoco. Esa lógica del desacierto permite que si se corrige el malentendido original, pueda reencausarse el razonamiento. En los grandes modelos de Lenguaje de Inteligencia Artificial el desatino no tiene límites. Se equivocan de maneras diferentes cada vez, produciendo alucinaciones impredecibles y, por lo tanto, muy difíciles de corregir. Porque, además, muy rara vez contestan ‘no sé’; prefieren darnos una mala respuesta a no dar ninguna. Venden humo.

María Victoria Ennis, Comprensión Potemkin ..., El País 28/08/2025


Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

El derecho a mentir

Què faria Martha Nussbaum davant una plaga de porcs senglars?