L'autòmat ètic és una il·lusió.






Cuando los aprendices de brujo se dieron cuenta de las posibles implicaciones de la capacidad autocorrectora y por tanto evolutiva de la inteligencia artificial, empezaron a hablar de la ética del autómata, o alineamiento, como se dice en la jerga filosófica empresarial.

En su pomposa presentación, los autores del chatbot GPT declaran que es su intención inscribir criterios éticos alineados con los valores éticos humanos en sus productos.

“Nuestra investigación de alineación tiene como objetivo alinear la inteligencia artificial general (IAG) con los valores humanos y seguir la intención humana. Adoptamos un enfoque iterativo y empírico: al intentar alinear sistemas de IA altamente capaces, podemos aprender qué funciona y qué no, refinando así nuestra capacidad para hacer que los sistemas de IA sean más seguros y más alineados”.

El proyecto de insertar reglas éticas en la máquina generativa es una vieja utopía de ciencia ficción, sobre la cual Isaac Asimov fue el primero en escribir cuando formuló las tres leyes fundamentales de la robótica. El mismo Asimov demuestra narrativamente que estas leyes no funcionan.

Y al fin y al cabo, ¿qué estándares éticos deberíamos incluir en la inteligencia artificial?

La experiencia de siglos muestra que un acuerdo universal sobre reglas éticas es imposible, ya que los criterios de evaluación ética están relacionados con los contextos culturales, religiosos, políticos, y también con los impredecibles contextos pragmáticos de la acción. No existe una ética universal, si no la impuesta por la dominación occidental que, sin embargo, empieza a resquebrajarse.

Obviamente, todo proyecto de inteligencia artificial incluirá criterios que correspondan a una visión del mundo, una cosmología, un interés económico, un sistema de valores en conflicto con otros. Naturalmente, cada uno reclamará universalidad.

Lo que sucede en términos de alineación es lo contrario de lo que prometen los constructores del autómata: no es la máquina la que se alinea con los valores humanos, que nadie sabe exactamente cuáles son. Pero los humanos deben alinearse con los valores automáticos del artefacto inteligente, ya sea que se trate de asimilar los procedimientos indispensables para interactuar con el sistema financiero, o que se trate de aprender los procedimientos necesarios para utilizar los sistemas militares.

Pienso que el proceso de autoformación del autómata cognitivo no puede ser corregido por ley o por normas éticas universales, ni puede ser interrumpido o desactivado.

La moratoria solicitada por los aprendices de brujo arrepentidos no es realista, y menos aún la desactivación del autómata. A esto se opone tanto la lógica interna del propio autómata como las condiciones históricas en las que se desarrolla el proceso, que son las de la competencia económica y la guerra.

En condiciones de competencia y guerra, todas las transformaciones técnicas capaces de aumentar el poder productivo o destructivo están destinadas a ser implementadas.

Esto significa que ya no es posible detener el proceso de autoconstrucción del autómata global.

“Estamos abriendo las tapas de dos cajas de Pandora gigantes”, escribe Thomas Friedman en un editorial de The New York Times “El cambio climático y la inteligencia artificial”.

Algunas frases del artículo me llamaron la atención:

“La ingeniería está por delante de la ciencia hasta cierto punto. Esto significa que incluso aquellos que están construyendo los llamados modelos de lenguaje extenso que subyacen en productos como ChatGPT y Bard no entienden completamente cómo funcionan ni el alcance total de sus capacidades”.

Probablemente, la razón por la que una persona como Hinton decidió abandonar Google y tomarse la libertad de advertir al mundo del peligro extremo es la conciencia de que el dispositivo posee la capacidad de autocorregirse y redefinir su propósito.

¿Dónde está el peligro de un ente que, sin tener inteligencia humana, es más eficiente que el hombre en la realización de tareas cognitivas específicas, y posee la capacidad de perfeccionar su propio funcionamiento?

La función general de la entidad inteligente inorgánica es introducir el orden de la información en el organismo impulsor.

El autómata tiene una misión ordenadora, pero encuentra en su camino un factor de caos: la pulsión orgánica, irreductible al orden numérico.

El autómata extiende su dominio a campos siempre nuevos de la acción social, pero no logra completar su misión mientras su expansión se ve limitada por la persistencia del factor caótico humano.

Ahora surge la posibilidad de que en algún momento el autómata sea capaz de eliminar el factor caótico de la única manera posible: acabando con la sociedad humana.

Franco 'Bifo' Berardi, El cumplimiento, ctxt 20/05/2023

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

Gonçal, un cafè sisplau

"¡¡¡Tilonorrinco!!! ¡¡¡Espiditrompa!!!"