Com respondre al poder tecnològic?
Hubo dos semanas que lo cambiaron todo para siempre. El 15 de noviembre de 2022, Meta lanzó Galactica, una versión de prueba de una inteligencia artificial capaz de crear lenguaje, orientada más a la creación de textos académicos. Duró tres días en el aire: Meta la tumbó tras recibir críticas durísimas por promover información sesgada y falsa: Galactica “alucinaba”, como se denomina a los errores de bulto que cometen estos programas. El 30 de noviembre, OpenAI hizo público su programa, ChatGPT, que también alucinaba. Pero había dos diferencias importantes. La empresa de Mark Zuckerberg tenía un pasado controvertido que le pasó factura y la de Sam Altman había tenido la astucia de entrenar previamente a ChatGPT con personas. Tras el desarrollo tecnológico, la máquina aprendió hablando con tutores de carne y hueso, que reforzaban las respuestas más humanas. Galactica se quedó en un cajón y ChatGPT se convirtió en uno de los programas de mayor éxito de la historia, logrando en seis meses el impacto social que a Facebook le llevó toda una década.
Lo sucedido entre el 15 y el 30 de noviembre fue también un cambio radical de mentalidad entre los gigantes tecnológicos, que llevaban más de un lustro invirtiendo miles de millones en IA y vaciando los departamentos de informática de las universidades al contratar a todo científico relevante. En todo ese tiempo, los laboratorios de estas compañías se centraron en desarrollos como Galactica oAlphaGo: pruebas fascinantes, logros científicos notables, pero poco producto con verdadero poder comercial. Es más, Google iba muy por delante, pero no se atrevió a lanzar esos productos al mercado por miedo a poner en riesgo el liderazgo de su buscador —si le puedes preguntar a un chat inteligente no se lo preguntas a un buscador tonto—, según se ha conocido en las investigaciones sobre sus prácticas monopolísticas. En enero, Microsoft anunció un acuerdo de 9.200 millones de dólares en OpenAI y se dispararon todas las alarmas en Google. Con el pie cambiado, el titán de las búsquedas cambió sus dudas iniciales por un “código rojo” interno para incorporar la IA generativa a todos sus productos, además de fusionar sus dos laboratorios, DeepMind y Google Brain, en un solo departamento con una misión menos científica y más productiva.
De los experimentos se pasó al marketing. Y los mismos empresarios que invertían millones en estos algoritmos alertaban sobre el riesgo para la humanidad y reclamaban regulación inmediata. Altman aseguró que si la IA sale mal, “esconderse en un búnker no salvaría la vida de nadie”. Mientras miles de chicas se veían pornificadas por programas fruto de estas tecnologías, la aristocracia tecnocapitalista agitaba el fantasma de Terminator, la película en la que las máquinas someten a la especie humana. Nada tan expresivo como cuando Biden reconoce que su interés por legislar se aceleró tras ver la última película de Misión imposible, en la que un programa, La Entidad, pone contra las cuerdas a todas las potencias mundiales. Los políticos han decidido actuar cuanto antes por el temor a que les pase con las manipulaciones de imágenes y audios (deepfakes) lo que pasó con la desinformación de Facebook hace años.
Hooker reconoce que hay “riesgos significativos” derivados de la IA, pero le preocupa que no se están priorizando correctamente. “Los escenarios más teóricos, y en mi opinión, extremadamente improbables, como los terminators tomando control del mundo, han recibido una cantidad desproporcionada de atención por parte de la sociedad. Creo que es un gran error y que deberíamos abordar los riesgos muy reales a los que nos enfrentamos actualmente, como los deepfakes, la desinformación, los sesgos y las ciberestafas”. Ese discurso catastrofista desde las grandes compañías se interpreta, según muchos especialistas, como un interés en conseguir una regulación a su medida. Las cuatro compañías ganadoras hasta ahora en la carrera (conocidas como GOMA: Google, OpenAI, Microsoft y Anthropic, fundada por exmiembros de OpenAI) han creado su propio grupo de presión para impulsar su marco regulatorio. El jefe científico en Meta, Yann LeCun, asegura que solo quieren frenar la llegada de competidores con una regulación a su medida: “Altman, Demis Hassabis [Google DeepMind] y Dario Amodei [Anthropic] son quienes están realizando un lobby intenso en este momento”. Andrew Ng, exdirector de Google Brain, ha sido muy expresivo: “Preferirían no tener que competir con el código abierto, por lo que están creando temor a que la IA conduzca a la extinción humana”.
Más de la mitad de los profesores universitarios de este sector en EE UU cree que los líderes corporativos están engañando a la sociedad para favorecer sus agendas. Incluso el consejo de OpenAI ha destituido este pasado viernes a Altman, casi en el primer aniversario de ChatGPT, por considerar que no es sincero con la empresa. El periplo del magnate Elon Musk en estos años también es muy representativo. Impulsó la creación de OpenAI para combatir la opacidad de Google. Quiso controlar la empresa al atisbar su potencial y acabó saliendo de ella, peleado con Altman. Tras el bombazo global de ChatGPT, Musk fue de los primeros en pedir una moratoria de seis mesesen el desarrollo de la IA. En realidad, estaba trabajando en la sombra para crear su propia empresa, X.AI (que se conoció solo un mes después), y su propio programa inteligente, llamado Grok y presentado el 4 de noviembre.
“Corremos el riesgo de afianzar aún más el dominio de unos pocos actores privados sobre nuestra economía y nuestras instituciones sociales”, advierte Amba Kak, directora ejecutiva del AI Now Institute, uno de los organismos que vigilan con más celo este campo. No es casualidad que el gran año de esta tecnología también haya sido el de su mayor opacidad: nunca las empresas que desarrollan la IA compartieron menos sobre sus datos, sus trabajos, sus fuentes. “A medida que aumentan los intereses económicos y las preocupaciones por la seguridad, las compañías que normalmente son abiertas han empezado a ser más secretas sobre sus investigaciones más innovadoras”, lamenta el informe anual sobre el sector que realiza la firma de capital riesgo Air Street Capital.
En su último libro, Poder y progreso (Deusto), los profesores Daron Acemoglu (MIT) y Simon Johnson (Oxford) advierten que la historia demuestra que las nuevas tecnologías no benefician a toda la población de forma natural, sino solo cuando se combate a las élites que tratan de acaparar ese progreso en forma de beneficios. “El sector tecnológico y las grandes empresas tienen hoy mucha más influencia política que en cualquier otro momento de los últimos 100 años. A pesar de sus escándalos, los magnates tecnológicos son respetados e influyentes en la sociedad y solo en raras ocasiones alguien les cuestiona el tipo de progreso que están imponiendo al resto de la sociedad”, critican. “En la actualidad, gran parte de la población mundial vive mejor que nuestros antepasados porque la ciudadanía y los trabajadores de las primeras sociedades industriales se organizaron, cuestionaron las decisiones de la élite sobre la tecnología y las condiciones laborales, y forzaron la creación de nuevos mecanismos para repartir de forma más igualitaria los beneficios derivados de la innovación. Hoy en día necesitamos volver a hacer lo mismo”.
Javier Salas, De la fascinación a la agenda oculta: e año de ChatGPT define la batalla por el futuro de la humanidad, El País 19/11/2023
Comentaris