En què consisteix el mite de la Intel·ligència Artificial (Erik Larson).








El mito de la inteligencia artificial es la convicción de que estamos en una trayectoria inevitable en la que eventualmente llegaremos a la singularidad y a la Inteligencia Artificial General (IAG), y que es sólo cuestión de tiempo que lo hagamos. En el libro no digo que sea imposible que esto vaya a suceder, pero explico que es un mito concebirlo como algo obvio. No es obvio. Realmente no lo es. Podrían pasar 100 años y que el estándar sean todavía estas enormes inteligencias artificiales simuladas que en general no son realmente capaces de entender nada, como ChatGPT. Podría no llegar nunca. O podría ser que en diez años hayamos descifrado el código y ya la tengamos. El error es afirmar que es inevitable, porque lo que sí sabemos es que los avances actuales no nos acercan más a tener una inteligencia artificial similar a la humana.

La inferencia es algo que todos hacemos constantemente en nuestra vida cotidiana, ya sea conversando con alguien u observando el mundo que nos rodea. Hay dos tipos de inferencia: inductiva y deductiva. Sin embargo, la mayoría de las inferencias que hacemos se basan en la observación de algo que ocurre y en la formulación de hipótesis sobre su causa plausible: ¿Qué ha pasado? ¿Por qué ha pasado esto? Este tipo de inferencia se denomina razonamiento abductivo, un término no muy conocido acuñado por un matemático y filósofo del siglo XIX. La abducción implica cuestionarse constantemente por qué ocurre algo y formular hipótesis sobre el mundo. Eso es lo que hacemos nosotros, que es distinto del análisis estadístico y no es algo que los ordenadores puedan hacer actualmente.

Los ordenadores y la IA no se están acercando a la inferencia humana y ahora mismo no conocemos un camino para que lo hagan. De momento, ese sendero solo existe en nuestra imaginación. Podríamos descubrirlo, o podríamos no hacerlo.

Los coches de conducción autónoma son un ejemplo perfecto de que el aprendizaje profundo no es suficiente porque no importa la cantidad de datos que tengas para entrenar a un sistema y simular acontecimientos en la carretera. Siempre se encuentran casos que están en los extremos, son eventos inusuales o implican sorpresa. Pero los sistemas de aprendizaje automático sólo se entrenaron en eventos anteriores, sólo con lo que ya ha sucedido. Así que cuando tienes un nuevo evento, no son adecuados.

El éxito de aplicaciones que se conocen como débiles, como ChatGPT, que han aplicado el aprendizaje profundo a un campo en concreto, no nos acerca más a la Inteligencia Artificial General, lo que llamamos IA fuerte. En los últimos años hemos aprendido a mejorar las IA débiles con ordenadores más rápidos y muchos más datos. ChatGPT puede analizar millones de periódicos, pero no puede entender lo que dice ninguno de ellos.

ChatGPT fue entrenada en superordenadores para ingerir cantidades masivas de datos. Sin embargo, cuando los datos se detienen, no sabe nada del mundo. Por ejemplo, cuando le pregunté por la guerra de Ucrania, no supo responder. Está entrenada con conocimientos enciclopédicos como Wikipedia y otras fuentes, que es a lo que me refiero con inducción estadística. Es un sistema impresionante, pero no cambia el problema de la inferencia del que hablo en el libro. Simplemente se le da un volumen tan grande de información que puede encontrar respuestas a preguntas. Sin embargo, también puede generar un completo sinsentido si se le hace la pregunta equivocada.

Alan Turing escribió un famoso artículo en 1950 sobre las posibilidades de la IA. Y especuló con que para el año 2000, los computadores habrían logrado pasar lo que ahora llamamos el Test de Turing. Es un anacronismo, ya que obviamente él no lo llamó “Test de Turing”, sino “Imitation Game”, como la película.

Básicamente, una máquina pasa el Imitation Game cuando una persona no puede decir si está hablando con un ordenador o no. Pero el mito no fue algo que surgiera realmente de Alan Turing, sino de un tipo que trabajó con él llamado Jack Good. Él también era parte del proyecto Bletchley para descifrar las máquinas Enigma de Alemania y fue una de las personas que colaboraron más estrechamente con Turing. Good escribió un artículo en 1960 diciendo que en algún momento se daría la singularidad tecnológica, por la que las computadoras se volverían tan inteligentes que llegaría un momento en el que no sabríamos cómo lidiar con ellas. Ahí fue cuando surgió el mito. La idea de la singularidad se siguió desarrollando a partir del artículo de Good por filósofos y escritores de ciencia ficción. También por gente como John von Neumann, que estaba involucrado en el Proyecto Manhattan. No fue solo Alan Turing o sus colaboradores, en realidad se desarrolló por un número más amplio de personas.

Carlos del Castillo, entrevista a Erik Larson: "Los avances actuales no nos acercan más a tener una inteligencia artificial similar a la humana", eldiario.es 03/03/2023

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

Gonçal, un cafè sisplau

Darwin i el seu descobriment de la teoria de l'evolució.