Contra la singularitat tecnològica.



La singularidad tecnológica es un concepto que quizá deba su éxito en los últimos años, precisamente, a lo vago y confuso que resulta. Si una idea no se deja clara, puede usarse para muchas más cosas que si su significado estuviera bien fijado. Y así, cada uno puede usarla como le venga en gana. En su sentido más primordial, la palabra surge de sustantivar el adjetivo singular, es decir, diferente. En física se utiliza cuando nos encontramos en una situación completamente anómala, donde no se cumple alguna ley o principio fundamental que sí lo hace en el resto del universo. 

Análogamente, la singularidad tecnológica será aquel momento de la historia de la humanidad en el que el desarrollo tecnológico llegará a un punto sin precedentes, a un momento absolutamente diferente a todo lo anterior, porque las máquinas igualarán y superarán la inteligencia humana. Esto llevará a lo que el filósofo de Oxford Nick Bostrom llama “explosión de inteligencia”: las máquinas se mejorarán a sí mismas de modo que cada nueva generación, al ser más inteligente, será capaz de mejorar su propia inteligencia, dando lugar a otra nueva generación aún más inteligente, y así sucesivamente ad infinitum.

Cualquier intento por parte de los humanos de predecir lo que pasará a partir de ese momento es, en principio, inútil porque ¿quién sabe cuáles serán los propósitos de esas inteligencias artificiales tan superiores a nosotros? ¿Puede acaso una cucaracha entender la conducta de un ser humano? Y de aquí surge la consecuente preocupación: ¿Tomarán el control del planeta? Y si lo hacen, ¿qué harán con nosotros? ¿Nos considerarán una amenaza y nos aniquilarán? ¿O nos dejarán subsistir como nosotros dejamos a los animales salvajes en las selvas del planeta?

Por eso el propio Bostrom hace mucho hincapié en que debemos dotar a esas inteligencias artificiales de unos principios éticos que se alineen con los nuestros. Si no caeríamos en el grave riesgo de que nos consideraran una amenaza o un obstáculo para sus propósitos y que decidieran quitarnos de en medio. 

Pero ¿de verdad que esto va a ocurrir? ¿Así será el inevitable fin de la humanidad? ¡De ninguna manera!

Solemos caer en el error de pensar que la tecnología de moda, es decir, la tecnología que en el momento presente está experimentando un gran avance, seguirá en el futuro al mismo ritmo. Por ejemplo, si hace nada GPT-3 nos parecía un logro asombroso, se nos caía la baba maravillándonos ante lo que podría hacer GPT-9… ¿Y, por qué no, GPT-300? Si las arquitecturas de deep learning están consiguiendo grandes aportaciones en muchos y variados campos tecnológicos ¿qué no lograrán de aquí a veinte o cincuenta años? Entonces, ¿no parece algo casi inevitable que la inteligencia artificial supere al ser humano y lleguemos a la singularidad?

Los singularistas asumen demasiado alegremente la idea de exponencialidad. Cuando algo avanza o crece a un ritmo exponencial estamos diciendo algo muy fuerte. Por ejemplo, cuando un grupo de bacterias se reproduce por fisión binaria (cada bacteria se divide en dos), lo hace a un ritmo exponencial (2N -1 ): en la segunda generación de bacterias hay tres, en la tercera siete, en la cuarta quince… En principio, no parece nada raro, pero si esperamos un pelín, la cosa se desmadra. Para 220 tenemos ya 1.048.575 bacterias, pero es que para 250 tenemos 1.125.899.906.842.623… ¡Menuda infección! ¿Puede una tecnología avanzar con ese mismo ritmo de crecimiento?

No existe ninguna referencia histórica a proyecto tecnológico que se haya desarrollado a ese ritmo de forma continuada. Lo que suele ocurrir es que, aunque una tecnología pudiera avanzar en un momento muy corto de su desarrollo a un ritmo exponencial, ese ritmo termina por decrecer rápidamente y quedarse estancado en un techo. Las tecnologías suelen progresar en forma de función logística y no de función exponencial. 

Y, ni siquiera la ley de Moore, en la que suelen basarse para sostener la idea de progreso continuo de la informática, sigue un crecimiento exponencial, sino típicamente lineal.

La singularidad tecnológica es una idea sugerente y evocadora, muy interesante para reflexionar sobre un montón de cuestiones. El ser humano se ha caracterizado por su radical soledad. Todos nuestros parientes evolutivos cercanos se extinguieron dejando sola a nuestra especie. Pensar en una inteligencia artificial igual o superior a nosotros consiste en meditar sobre la ruptura de esa soledad, acerca de la relación con lo radicalmente otro. 

Esto nos lleva inevitablemente a mirarnos al espejo y a cavilar sobre nosotros mismos: ¿Podré enamorarme de una inteligencia artificial? ¿Qué es entonces el amor? Si las máquinas nos quitan el trabajo ¿Qué haremos con nuestras vidas? Si nos superan y toman el mando ¿cuál sería el sentido de nuestra existencia? La inteligencia artificial es el logro científico de nuestro tiempo y, en cuanto a tal, supone una revolución del pensamiento.

Pero hasta aquí podemos llegar, porque otra cosa muy distinta es vender la singularidad como un hecho no solo inevitable, sino cercano en el tiempo. Como creo haber argumentado a lo largo de este artículo, no hay razones ni evidencia científica suficiente para sustentar si quiera que algo así vaya a suceder alguna vez en la historia, cuanto menos para decir que ocurrirá en las próximas décadas.

Santiago Sánchez Migallón, El mito de la singularidad o por qué la inteligencia artificial no va a heredar la Tierra, xtaka.com 28/08/2021

https://www.xataka.com/robotica-e-ia/mito-singularidad-que-inteligencia-artificial-no-va-a-heredar-tierra?fbclid=IwAR3Qmk5rcQK23GO5-AYFi9Y44300_XBRPCU9jttb5B9JrdQr4YZQ0occIrA



Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

"¡¡¡Tilonorrinco!!! ¡¡¡Espiditrompa!!!"

The End.