Els límits de la IA.

TRANSHUMAN



La tesis de la singularidad tecnológica es una de las ideas más controvertidas de Ray Kurzweil. La explicamos a grandes trazos: si conseguimos construir una inteligencia artificial más inteligente que el ser humano, según Kurzweil, será de esperar que esa inteligencia pueda crear otra inteligencia aún mayor. Pronto, la nueva máquina creará otra aún más inteligente, y así sucesivamente según un crecimiento exponencial (siguiendo la ley de rendimientos crecientes del propio Kurzweil). Nosotros, los para entonces estúpidos humanos, solo podremos contemplar como esas inteligencias se van alejando más y más de nuestro primitivo entendimiento hasta que no podamos comprender ni predecir qué es lo que estarán haciendo. Y aquí llegará la singularidad: un momento histórico sin retorno en que el hombre quedará relegado de la historia sin enterarse de nada, pues todo lo que ocurra será tan “singular”, tan diferente al resto de la historia anterior, que no habrá forma humana de comprender nada.

Pues bien, esta idea peca de una ingenuidad impresionante. Veamos por qué.

El gen NRB2 está muy relacionado con la capacidad del cerebro para asociar sucesos en la mente, al controlar la comunicación entre neuronas del hipocampo (la parte del cerebro encargada de consolidar los recuerdos, es decir, de convertir información de la memoria de trabajo en recuerdos genuinos de la memoria a largo plazo). Por esa razon NRB2 es, como mínimo, un gen imprescindible para cualquier tipo de aprendizaje. Sin él, los recuerdos no se fijan y nada se aprende. Pero, ¿se aprende más si aumentamos la expresión de estos genes? Sí, o al menos eso ocurre en ratones.

En 1999, el neurocientífico Joe Z. Tsien descubrió que la introducción de un único gen en ratas de laboratorio, provocaba un aumento más que significativo en sus facultades mentales. Eran mejores que los ratones normales en un montón de pruebas, incluidas las famosas fugas cronometradas de laberintos. Sigamos, ¿por qué no introducir más NRB2 en esos diminutos cerebros? Hecho: en diversos laboratorios se han ido criando cepas de ratones más inteligentes. En 2009, Tsien publicó un artículo en el que presentaba la variedad “Hobbie-J” (el nombre viene por un personaje de una serie de dibujos animados china), la cepa de ratones más inteligente que jamás haya existido. Su memoria para recordar hechos novedosos es tres veces superior a la variante de ratones considerada más inteligente hasta entonces.

Cuando a Tsien le preguntaron hasta qué punto llegarían a ser inteligentes sus ratones, Tsien respondió sonriente que, a fin de cuentas, solo eran ratones, nunca iban a saber resolver ecuaciones ni escribir novelas. Hay muchos límites biológicos que impiden que los ratones lleguen tan lejos. Si aplicamos estas conclusiones al planteamiento de la singularidad de Kurzweil podemos llegar a lo mismo: ¿no hay techos ni limitaciones de ningún tipo a la producción de más inteligencia en las máquinas?

Vamos a poner otro ejemplo. Pensemos que la humanidad en general no hubiera desarrollado tanto su neocortex de modo que fuera mucho menos inteligente de lo que es ahora. Imaginemos, por ejemplo, que nos hubiésemos quedado estancados en algún tipo de homo erectus o de ergaster con un CI, pongamos, de 70. Un fastuoso día, el chaman de la tribu se acerca a sus congéneres con una poción mágica cuyo poder reside en hacer más inteligente al individuo que la ingiera. Al tomarla el CI sube de 70 a 80. Podría pensarse, siguiendo a Kurzweil, que si con un CI de 70 pudo fabricarse una poción que nos hacía más inteligentes, con un CI de 80 podría hacerse otra aún más efectiva. ¿Seguro? ¿Por qué 10 puntos de CI son suficientes para diseñar una nueva pócima? Sería posible que las dificultades para elaborar tan maravillosa química requirieran un CI mínimo de 160. ¿Cómo saber cuánto CI hace falta para conseguir la siguiente pócima? Si fuera necesario un 90, nuestros trogloditas estarían condenados a nunca encontrarla ya que se quedarían estancados en el 80 recién adquirido.

Este ejemplo es plenamente aplicable a las inteligencias artificiales. Cuando tengamos una más inteligente que nosotros, ¿por qué iba a poder construir una inteligencia aún más inteligente que ella? A lo mejor las dificultades teóricas, prácticas o de cualquier tipo impiden construir una máquina mejor. La computadora puede no ser lo suficientemente inteligente aún para dar el siguiente paso o, dejémoslo muy claro, simplemente, no se puede. Para que se de un descubrimiento significativo en una rama de la ciencia, hacen falta que se den muchas cosas: nuevas herramientas matemáticas, innovadoras técnicas de observación o experimentación… muchas veces, un descubrimiento es resultado de un trabajo colaborativo de muchas personas e instituciones. Podría pasar que nuestra superinteligencia artificial no pudiera construir otra superinteligencia, sencillamente, porque ningún inversor ve clara la rentabilidad de tal avance. Un nuevo descubrimiento no es solo cuestión de una mayor inteligencia. La máquina analítica de Babagge no pudo construirse no por falta de inteligencia, sino por falta de medios técnicos.

Kurzweil basa su idea de progresión exponencial en el crecimiento de la capacidad de computación de los ordenadores. Parece cierto que esta capacidad va creciendo a un ritmo muy rápido. Sin embargo, la creación de una superinteligencia no depende únicamente de la capacidad de computación. Es mucho más importante saber qué hacer con esa capacidad de computación que seguir aumentándola hasta el infinito. Y el avance del saber qué hacer no está siguiendo un crecimiento exponencial: la inteligencia artificial como disciplina ha sufrido varios inviernos, varias épocas de estancamiento en las que no se han producido los avances esperados. De hecho, yo personalmente, sigo sin ver esos avances que justifiquen el entusiasmo renacido en estos tiempos.

Santiago Sánchez-Migallón Jiménez, Hobbie-J, pócimas de inteligencia y singularidad, La máquina de Von Neumann, 20/09/2014

Comentaris

Entrades populars d'aquest blog

Freud: la geneologia de la moral.