dissabte, 27 de febrer de 2016

La teoria de la Singularitat Tecnològica

Si vamos a hablar de la singularidad tecnológica lo primero que deberíamos entender es el concepto de singularidad. Singularidad nos habla de una característica fundamental extraordinaria o rara, única en su especie. “Cualquier sujeto u objeto que resultara especial y distinto de sus adláteres”. Algo que se sale de las previsiones razonables y de difícil comprensión.

Los seres humanos han basado su desarrollo como especie dominante de la tierra en su inteligencia racional, la única característica que nos permitía una ventaja competitiva con el resto de especies. Con el uso de esta inteligencia, el ser humano ha ido desentrañando poco a poco las leyes que rigen nuestro entorno. Ha estudiado, observado y experimentado con todos los elementos a su alcance hasta poder crear modelos científicos plausibles que expliquen cómo es nuestro mundo exterior e interior. 

El ser humano ha descubierto, documentado y desarrollado los principios de las máquinas simples que usaba intuitivamente como la palanca, la rueda o el plano inclinado y las ha combinado en máquinas complejas, creando la base de la ingeniería. Ha experimentado con la física y la química hasta poder recopilar las leyes que gobiernan la transformación de los elementos y poder usarlos en su beneficio. Todo este conocimiento escrito tiene algo en común: sus leyes y fórmulas nos permiten, en base a unos datos de entrada conocidos, determinar los resultados finales. Así sabremos, por ejemplo, dónde se cruzan los trenes que salen de Barcelona y Madrid a 100 y 130 km/h respectivamente, o dónde aterrizará una pelota que cae por un plano inclinado de 30 grados con rozamiento despreciable.

Pero estas normas tienen a veces puntos oscuros o que no hemos sabido resolver convenientemente con los marcos de referencia que usamos. Estos puntos donde unos datos de entrada conocidos no nos permiten obtener los datos de salida son las singularidades.

Un ejemplo muy vistoso de singularidad es la de Prandtl-Glauert, en la que un avión que vuela a velocidades transónicas crea una nube de condensación a su alrededor por la caída súbita de la presión del aire a Mach 1. Otra singularidad muy conocida es la teoría del Big Bang, dado que éste solo pudo ocurrir más allá de las leyes conocidas de la física, con toda la materia concentrada en un solo punto y con una densidad infinita.

La singularidad tecnológica se basa en la idea de que el desarrollo científico y tecnológico humano no es lineal, sino exponencial. Cada descubrimiento realizado por el hombre ha abierto la puerta a más descubrimientos. Así como el descubrimiento de la rueda produjo el torno, la polea o el eje, estos fueron dando lugar a los engranajes, los rodamientos, los discos, las grúas o las carretillas, y así hasta terminar en la estación espacial o en Internet. Cada invención abre un abanico de posibilidades cuyas puntas generan nuevos abanicos y cada nueva invención puede ser combinada con las tecnologías existentes.

Este proceso es ahora mucho más rápido que en tiempos pasados por el punto de la curva exponencial en el que nos encontramos, y es perceptible intuitivamente: la cantidad de descubrimientos asombrosos que vemos en diez años es muy superior al que verían diez generaciones de una familia empezando en la Edad Media. Esto implica, además, que si bien antiguamente se experimentaban totalmente las tecnologías descubiertas, ahora saltamos de un descubrimiento a otro sin tiempo de, o quizá sin interés por, desarrollarlas y entenderlas completamente.

Lo que postula la singularidad tecnológica es que en un futuro cercano (todos lo vamos a ver) tendremos tal cantidad de desarrollo tecnológico y habremos dado tal salto de sofisticación científica que es imposible predecir como será la vida al otro lado de la singularidad.

El concepto ha sido tratado desde antiguo por varios autores, pero generalmente se considera que el primer uso del término singularidad en este contexto lo hizo Von Neumann en la década de los 50. Von Neumann, matemático, físico, inventor, genio, se refería a la aceleración constante en el progreso de las tecnologías y los cambios en la vida humana, y cómo parecía que nos acercábamos a un punto en la historia más allá del cual los asuntos humanos tal como los conocemos no podrían continuar.

Curiosamente Von Neumann fue uno de los principales artífices del proyecto Manhattan, que culminó en el primer uso de bombas nucleares contra población civil en Hiroshima y Nagasaki; y se le atribuye la estrategia de Destrucción Mutua Asegurada en el equilibrio armamentístico nuclear de la guerra fría, con su humorístico acrónimo MAD (loco). Von Neumann fue el principal impulsor de la reducción en tamaño de las cabezas nucleares para poder acomodarlas en misiles intercontinentales balísticos y asegurar la estrategia de destrucción total mutua. Irónicamente su muerte debida a un cáncer podría ser resultado directo de la tecnología humana al haberse expuesto a grandes dosis de radiación durante las pruebas de armas atómicas en el atolón de las Bikini en 1946. Von Neumann, judío de nacimiento y, a decir de sus amigos, agnóstico en vida, se convirtió al catolicismo en su lecho de muerte.

El concepto de la singularidad tecnológica fue popularizado por el matemático y autor de ciencia ficción Vernor Vinge, que puso el foco de la singularidad en el desarrollo de la inteligencia artificial, los interfaces cerebro-máquina y el advenimiento de la superinteligencia.

Según esta teoría, los sistemas desarrollados por los humanos ganarían la capacidad de mejorarse a sí mismos recursivamente, creando una línea de desarrollo autónoma que excedería las limitaciones del pensamiento humano. Ante esto cabe pensar que todo el conocimiento humano está limitado por nuestra propia imaginación, que es la manipulación intrínseca de información obtenida sensorialmente. Todo lo que creamos está condicionado por aquello que hemos experimentado o con las ramas del árbol tecnológico a las que hemos estado expuestos, pero una máquina que tuviese la posibilidad de creación podría estar expuesta a literalmente todo el conocimiento humano recopilado hasta la fecha.

El desarrollo de la inteligencia artificial todavía tiene camino que cubrir, como desarrollar algoritmos que necesiten menos recursos para problemas complejos, pero es precisamente la inteligencia artificial ya desarrollada la que esta ayudando a los humanos a solventar los problemas existentes. Que vamos a coexistir con la inteligencia artificial general es un hecho innegable. Desde que Deep Blue ganó al ajedrez a Kasparov en 1997 los algoritmos sacados de la inteligencia artificial no han hecho mas que ganar parcelas en nuestras vidas, desde la diagnosis médica hasta los asistentes personales de los teléfonos inteligentes.

Otro camino para la superinteligencia es la llamada ingeniería inversa del cerebro humano. La Unión Europea ha financiado con 1.000 millones de euros el Human Brain Project que va a investigar y documentar el funcionamiento del cerebro humano y trasladarlo a un modelo informático. Este proyecto espera replicar los cien billones de neuronas humanas en una red neuronal de computadores y crear un modelo de referencia en los próximos diez años.

El nivel de inteligencia artificial de los sistemas actuales es comparable a la capacidad de razonamiento de los hombres de Neanderthal, pero si aplicamos la ley de Moore, que dice que el número de los transistores de un circuito integrado denso se duplica cada dos años, podremos llegar a coincidir con Vinge, que estima que la inteligencia artificial superará a la humana a partir del 2020.

Esto significa que en un futuro cercano preferiremos que nuestro avión sea pilotado por una IA y no por un humano, que nos opere una IA, que los vehículos de las ciudades sean controlados por IAs y, tarde o temprano, que nuestros políticos y gestores sean IAs.

Cualquier profesión estará sujeta a la misma ley: será realizada de manera más eficiente por un autómata. Esto no solo cuestionará los humanos como fuerza de trabajo sino la formación de los mismos, ya que nuestra capacidad nos impedirá competir con la nueva especie dominante. En un futuro posible post singularidad tecnológica, la única función relevante que le quedaría al ser humano sería la reflexión sobre el sentido de la existencia humana.

Ray Kurzweil, inventor, futurista, transhumanista y uno de los grandes apóstoles de la singularidad tecnológica postuló la ley de rendimientos acelerados en 2001. En su ensayo explica el crecimiento exponencial tecnológico extendiendo la ley de Moore a otras tecnologías aparte de los circuitos integrados, y declarando que siempre que una nueva tecnología alcance un cierto tipo de barrera se inventará otra tecnología para permitir cruzar esa barrera. Según Kurzweil, en el siglo XXI no experimentaremos cien años de progreso, sino el equivalente a veinte mil años de progreso, lo que permitirá completar el modelado de ingeniería inversa del cerebro humano para el 2029 y la singularidad llegará en torno al 2045.

Kurzweil tiene una visión muy optimista del futuro y ha hecho público que forma parte de la Fundación Alcor para la Extensión de la Vida; si muriese, sería criogenizado y preservado hasta que los avances en medicina permitiesen su restauración o su consciencia pudiese ser transferida a un ordenador.

La teoría de la Singularidad Tecnológica no está exenta de detractores, como Noam Chomsky o Paul Allen, pero incluso estos detractores coinciden en que la vida humana cambiará de forma dramática con el crecimiento exponencial de la tecnología. Quizá no se desarrolle esta superinteligencia, pero los avances tecnológicos nos permitirán, por ejemplo, formar parte a todos de foros de decisión y gestión en tiempo real, eliminando la necesidad de contar con políticos como representación de la voluntad de sus electores. Ante los detractores se suele esgrimir la primera ley del avance científico del escritor británico de ciencia ficción Arthur Clarke, que reza: “Cuando un científico eminente pero anciano afirma que algo es posible, es casi seguro que tiene razón. Cuando afirma que algo es imposible, muy probablemente está equivocado.”

La contención del desarrollo es casi impensable. La dependencia de los seres humanos de la tecnología es mucho mas profunda de lo que queremos llegar a creer. A este respecto es muy recomendable ver la película American Blackout, realizada en 2013 por National Geographic y que da unas pinceladas de lo que podría pasar con un simple fallo eléctrico en Estados Unidos.

Al final, el desarrollo de una superinteligencia artificial que se relacione consigo misma es inevitable. Tan solo podemos discutir cuánto tiempo tardará en llegar. Ese día la humanidad habrá creado una especie nueva que, según nuestros propios estándares, desbancará al Homo Sapiens como rey de la cadena evolutiva. En un cuento de Fredric Brown, los humanos construyen un ordenador que tiene esta superinteligencia. Al encenderlo su creador le hace la pregunta que se ha hecho la humanidad desde el principio de los tiempos: “¿Existe Dios?”. Y el ordenador responde: “Ahora sí”.

Gonzalo de la Pedraja, Bienvenidos a la era de la singularidad, ctxt 30/12/2015