La mà invisible ja no funciona en IA.
La evolución de la Inteligencia Artificial no conduce a la creación de androides, a la simulación perfecta del organismo consciente, sino que se manifiesta como la sustitución de habilidades específicas por autómatas pseudocognitivos que se enlazan entre sí convergiendo en el autómata cognitivo global.
El 28 de marzo de 2023, Elon Musk y Steve Wozniak, seguidos por más de mil altos operadores de alta tecnología, firmaron una carta en la que proponían una moratoria a la investigación en el campo de la IA:
“Los sistemas de IA se están volviendo competitivos con los humanos en la búsqueda de propósitos generales, y tenemos que preguntarnos si debemos permitir que las máquinas inunden nuestros canales de información con propaganda y falsedades. ¿Deberíamos permitir que todas las actividades laborales se automaticen, incluidas las gratificantes? ¿Deberíamos desarrollar mentes no humanas que pudieran superarnos en número y eficacia, para volvernos obsoletos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no se pueden delegar en líderes tecnológicos no elegidos. Estos poderosos sistemas de inteligencia artificial solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos son manejables. Por lo tanto, hacemos un llamamiento a todos los laboratorios de IA para que suspendan de inmediato el entrenamiento de los sistemas de IA más potentes que GPT-4 durante al menos seis meses. Este descanso debe ser público y verificable, y debe incluir a todos los actores clave. Si no se implementa tal pausa, los gobiernos deberían tomar la iniciativa de imponer una moratoria”.
Luego, a principios de mayo de 2023, se difundió la noticia de que Geoffrey Hinton, uno de los primeros creadores de redes neuronales, decidió dejar Google para poder expresarse abiertamente sobre los peligros implícitos en la inteligencia artificial.
“Algunos de los peligros de los chatbots de IA son bastante aterradores”, dijo Hinton a la BBC, “porque pueden superar a los humanos y pueden ser utilizados por agentes maliciosos”.
Además de anticipar la posibilidad de manipulación de la información, lo que preocupa a Hinton es “el riesgo existencial que surgirá cuando estos programas sean más inteligentes que nosotros. Es como si tuvieras diez mil personas y cada vez que una persona aprendiera algo, todos lo supieran automáticamente. Y así es como estos chatbots pueden saber mucho más que cualquier persona”.
La vanguardia ideológica y empresarial del neoliberalismo digital parece atemorizada por el poder del Golem y, como aprendices de brujo, los empresarios de alta tecnología piden una moratoria, una pausa, un periodo de reflexión.
¿La mano invisible ya no funciona? ¿La autorregulación de la Red-Capital ya no está en la agenda?
¿Qué está sucediendo? ¿Qué va a pasar? ¿Qué está a punto de suceder?
Son tres preguntas separadas. Lo que está pasando más o menos lo sabemos: gracias a la convergencia de la recolección masiva de datos, de programas capaces de reconocimiento y recombinación, y gracias a dispositivos de generación lingüística, está surgiendo una tecnología capaz de simular habilidades inteligentes específicas: loros estocásticos.
Lo que está a punto de suceder es que los loros estocásticos, gracias a su capacidad de autocorrección y su capacidad para escribir software evolutivo, están obligados a acelerar en gran medida la innovación técnica, especialmente la innovación técnica de sí mismos.
Lo que podría suceder y probablemente sucederá: los dispositivos innovadores de autocorrección (aprendizaje profundo) determinan su propósito independientemente del creador humano. En las garras de la competencia económica y militar, la investigación y la innovación no pueden suspenderse, especialmente si pensamos en la aplicación de la IA en el campo militar.
Creo que los aprendices de brujo se están dando cuenta de que la tendencia a la autonomía de los generadores de lenguaje (autonomía desde el creador humano) está generando competencias inteligentes más eficientes que el agente humano, aunque en un campo específico y limitado.
Luego, las habilidades específicas convergerán hacia la concatenación de autómatas autodirigidos para los cuales el creador humano original podría convertirse en un obstáculo a eliminar.
En el debate periodístico sobre este tema priman posiciones de cautela: se denuncian problemas como la difusión de noticias falsas, la incitación al odio o manifestaciones racistas implícitas. Todo cierto, pero no muy relevante.
Durante años, las innovaciones en la tecnología de la comunicación han aumentado la violencia verbal y la idiotez. Esto no puede ser lo que preocupa a los maestros del autómata, a quienes lo concibieron y lo están implementando.
Lo que preocupa a los aprendices de brujo, en mi humilde opinión, es la conciencia de que el autómata inteligente dotado de capacidades de autocorrección y autoaprendizaje está destinado a tomar decisiones autónomas de su creador.
Pensemos en un automatismo inteligente insertado en el dispositivo de control de un dispositivo militar. ¿Hasta qué punto podemos estar seguros de que no evoluciona de forma inesperada, tal vez acabando disparando a su dueño o deduciendo lógicamente de los datos de información a los que puede tener acceso la urgencia de lanzar la bomba atómica?
La máquina lingüística que responde a las preguntas es una demostración de que Chomsky tiene razón cuando dice que el lenguaje es el producto de estructuras gramaticales inscritas en la herencia biológica humana, dotadas de un carácter generativo, es decir, capaces de generar infinitas secuencias dotadas de significado.
Pero el límite del discurso de Chomsky reside precisamente en la negativa a ver el carácter pragmático de la interpretación de los signos lingüísticos; del mismo modo, el límite del chatbot GPT consiste precisamente en su imposibilidad de leer pragmáticamente las intenciones de significado.
Transformador Generativo Pre-entrenado (GPT) es un programa capaz de responder y conversar con un humano gracias a la capacidad de recombinar palabras, frases e imágenes recuperadas de la red lingüística objetivada en Internet.
El programa generativo ha sido entrenado para reconocer el significado de palabras e imágenes, y posee la capacidad de organizar declaraciones sintácticamente. Posee la capacidad de reconocer y recombinar el contexto sintáctico pero no el pragmático, es decir, la dimensión intensiva del proceso de comunicación, porque esta capacidad depende de la experiencia de un cuerpo, experiencia que no está al alcance de un cerebro sin órganos. Los órganos sensibles constituyen una fuente de conocimiento contextual y autorreflexivo que el autómata no posee.
Desde el punto de vista de la experiencia, el autómata no compite con el organismo consciente. Pero, en términos de funcionalidad, el autómata (pseudo)cognitivo es capaz de superar al agente humano en una habilidad específica (calcular, hacer listas, traducir, apuntar, disparar, etc.).
El autómata también está dotado de la capacidad de perfeccionar sus procedimientos, es decir, de evolucionar. En otras palabras, el autómata cognitivo tiende a modificar los propósitos de su funcionamiento, no solo los procedimientos.
Una vez desarrolladas las habilidades de autoaprendizaje, el autómata está en condiciones de tomar decisiones relativas a la evolución de los procedimientos, pero también, fundamentalmente, de tomar decisiones relativas a los propios fines del funcionamiento automático.
Gracias a la evolución de los loros estocásticos en agentes lingüísticos capaces de autocorrección evolutiva, el lenguaje, hecho capaz de autogenerarse, se vuelve autónomo del agente humano, y el agente humano se envuelve progresivamente en el lenguaje.
El humano no es subsumido, sino envuelto, encapsulado. La subsunción total implicaría una pacificación de lo humano, una completa aquiescencia: un orden, finalmente.
Finalmente una armonía, aunque totalitaria.
Franco 'Bifo' Berardi, El cumplimiento, ctxt 20/05/2023
Comentaris