La intel.ligència de les màquines intel.ligents.
Los fascinantes avances en el campo de la robótica
–impulsada en los últimos años por el abaratamiento de los sensores, así
como por un aumento de la conectividad y la capacidad de procesamiento–
invitan a fantasear con un futuro robotizado, con tanto entusiasmo como
lo han hecho durante el siglo XX cientos de novelas de ciencia ficción.
Tanto es así que a veces la inteligencia artificial pasa por sinónimo
de robots con forma humanoide y cualidades inspiradas en los seres
humanos.
El matemático Alan Turing, pionero en este terreno, definió el concepto haciendo referencia a la imposibilidad de distinguir a una persona de una máquina
en una conversación a ciegas. Hoy no hay una definición tan drástica,
aunque subyace la misma idea de que las máquinas acaben comportándose
como se comportan los seres humanos. “Que parezcan inteligentes o que
realmente lo sean”, apunta Alberto García, autor del blog divulgativo
sobre inteligencia artificial divertimentosinformaticos.com.
En realidad, la inteligencia artificial nos rodea y se encuentra
presente de forma mucho más cotidiana de lo que nos hemos parado a
pensar.
Las líneas de investigación en inteligencia artificial
En ocasiones, la inteligencia artificial queda definida por las
muestras más futuristas. Así, los coches autónomos, de los que están
previstos varios modelos para 2020, los drones, las smart cities o la
robótica en general son lo que más llaman la atención, pero esto no
quiere decir que en la actualidad sean lo más relevante. “Ahora mismo
estamos muy centrados en reconocer patrones, reconocer objetos o el
habla, y el reto es no sólo diferenciarlos sino comprenderlos. No sólo
reconocer el lenguaje, sino comprender la semántica del lenguaje”,
destaca Alberto García.
El reconocimiento de patrones está relacionado con el campo del data mining (o minería de datos), que trata de extraer información útil de toda una masa desestructurada de datos.
Twitter es un buen ejemplo de cómo ingentes cantidades de información
sin hilo conductor aparente pueden servir para prever tendencias de
consumo y otros comportamientos, incluso para detectar epidemias y
proyectar su expansión. “Es como si un ser humano tuviera una capacidad
de procesamiento brutal y acceso a una cantidad de información brutal”,
resume así Alberto García los dos pilares básicos que dan pie a este
proceso.
Sin embargo, aun con la gran capacidad de
procesamiento que han alcanzado las máquinas y toda la información que
está disponible, las limitaciones se dejan notar. En un experimento que
hizo Google, pusieron una red neuronal de 16.000 procesadores a ver
vídeos de YouTube. Su misión era identificar gatos. Lograron
prácticamente duplicar el porcentaje de aciertos
obtenido hasta el momento, a pesar de lo cual sólo reconocieron a los
mininos un 16% de las veces. El objetivo de la inteligencia artificial
en este terreno –aún por alcanzar y precisar– no es sólo que una máquina
sea capaz de reconocer un gato o cualquier otra forma en una escena de
una película, sino que pueda comprender la escena y darle un significado completo.
Normalmente se trabaja a un nivel más bajo y precisamente a este nivel
la inteligencia artificial está presente en muchos ámbitos de la
cotidianidad. El reconocimiento de patrones está por todas partes. Los
bancos, por ejemplo, lo utilizan continuamente para comprobar si una
transacción es correcta o fraudulenta, sirviéndose de un software que
usa toda la información acumulada sobre fraudes y movimientos correctos.
De hecho, estos sistemas puede predecir cómo serán los casos futuros,
es decir, los algoritmos tienen la capacidad de generalizar. El profesor
de Inteligencia Artificial de la Escuela Politécnica Superior (EPS) de
la UAM Manuel Sánchez-Montañés equipara esta cualidad al aprendizaje. “ Las máquinas hoy en día pueden aprender en ese sentido: amoldarse a problemas, desarrollar la capacidad de extraer patrones o predecir casos nuevos”.
El cerebro como un modelo a imitar
La simulación del cerebro es otra de las líneas de investigación
vigentes. La propia Unión Europea ha financiado con 1.000 millones de
euros el Human Brain Project,
un plan para crear un modelo del cerebro humano que permita usarlo para
controlar robots y también para hacer pruebas médicas. Esta dicotomía
se refleja constantemente cuando se trata de estudiar el sistema
nervioso.
“Hay algoritmos de inteligencia artificial
que fueron inspirados simulando el cerebro. Pero también hay ingenieros
que trabajan con neurocientíficos o gente que estudia el cerebro, como
psicólogos. Simulan el cerebro y comprueban si lo que se conoce por la
psicología puede explicar cosas sobre el funcionamiento del cerebro
cuando lo simulas en un ordenador”, explica Sánchez-Montañés, haciendo
hincapié en que sólo son fragmentos del órgano lo que se imita.
“No hay ni modelos enteros del sistema nervioso de animales sencillos.
Lo primero es que nos falta toda esa información del cerebro real y lo
segundo es cómo metes esto en una máquina”, apunta Sánchez-Montañés, que
matiza que no es viable replicar neurona a neurona un cerebro con la
tecnología de hoy en día. Su colega Pablo Varona, profesor de Ciencias
de la Computación e Inteligencia Artificial en la EPS de la UAM,
especializado en neurociencia computacional, expresa la magnitud de la
tarea: “El cerebro es un órgano que tiene miles de millones de neuronas,
todas procesando información en paralelo, y la tecnología actual en
neurociencia es capaz de registrar sólo unas pocas de esas miles de
millones de neuronas”.
Aunque Varona destaca la
importancia de profundizar en el conocimiento del cerebro, del que beben
tanto la inteligencia artificial como la medicina, la biología y otras
disciplinas, reconoce que la simulación precisa de la totalidad del
órgano está aún muy lejos. A la enorme complejidad de la actividad que
desarrolla se suman otros aspectos. Sin ir más lejos, la capacidad de
autorregulación que tienen las neuronas. “En cualquier ordenador, si se
rompe un transistor, lo más seguro es que el ordenador no pueda
funcionar y, sin embargo, a nosotros se nos mueren neuronas a diario y
en principio eso no afecta”, puntualiza el especialista en neurociencia
computacional.
Por qué no veremos pronto un androide caminando entre nosotros
Las preocupaciones reales muestran, por tanto, que la inteligencia
artificial entendida como máquinas que actúen y se comporten como las
personas está lejos de ser una opción viable en un futuro cercano. El
recurrente sueño de la ciencia ficción de un robot casi indistinguible
de un ser humano seguirá teniendo forma de sueño por el momento.
“Ahora mismo somos muy buenos logrando que un ordenador realice algo concreto, como jugar al ajedrez, pero somos bastante incapaces de soltarlo en un medio que no conoce y que sea capaz de adaptarse”,
señala Alberto García. La Deep Blue, argumenta, que batió al entonces
campeón del mundo de ajedrez Gary Kasparov, en 1997, basó su éxito en
una alta potencia de cálculo y algoritmos de búsqueda muy
especializados, un cóctel que no serviría para dar autonomía a una
máquina. “Tenemos muy claras cuáles son las reglas del ajedrez, pero no
tenemos tan claras las reglas del entorno –especifica García–. Podemos
decirle a una máquina: tienes que ir por el suelo, si llegas a una
escalera tienes que poner un pie delante, etcétera, pero a lo mejor
llega a una piedra y no sabe cómo tiene que actuar”.
Siguiendo este razonamiento, habría que decirle a la máquina
absolutamente todas las situaciones que se puede encontrar en el medio,
algo inviable hoy en día y por lo que es tan determinante incorporar una
capacidad de aprendizaje avanzada, uno de los motivos por los que se
intenta simular el cerebro. Sánchez-Montañés coincide en la importancia
de este factor a la hora de imitar a un ser humano. “Desde el punto de
vista del software, para mí lo fundamental es la capacidad de adaptarse a
situaciones nuevas. Los humanos, cuando nos desarrollamos, nos caemos
al suelo; cometemos un montón de errores y poco a poco vamos refinando
el comportamiento porque tenemos la capacidad de aprender. A la máquina le tienes que poner esa capacidad de aprendizaje en base a errores, y en base a aciertos también”, afirma el profesor de Inteligencia Artificial.
No hay que olvidar que este proceso de aprendizaje en los humanos dura
años, por no hablar de que tenemos guías y modelos en los adultos.
Sánchez-Montañés puntualiza que el germen para aprender ya está presente
en las máquinas, pero esta capacidad tendría que ser mucho mayor. A
partir de ahí, el conocimiento que adquiera un robot se podría pasar a
la siguiente generación de robots, por lo que éstos no empezarían otra
vez de cero, como las personas, si bien nunca se podría dejar de lado la
capacidad de aprender.
Pero las dificultades para
construir un androide no se ciñen al aprendizaje. “Desde el punto de
vista del hardware, sé que es un problema muy complejo porque en las piernas y en los pies tenemos cientos de músculos.
Es una obra de ingeniería muy complicada. Y desde el punto de vista del
software, también sería muy complicado coordinar esos cientos de
músculos. Por eso las máquinas andadoras que hay ahora mismo tienen ese
andar un poco extraño porque tienen muchos menos elementos que
nosotros”, comenta Sánchez-Montañés, quien insiste en que el presente de
la inteligencia artificial está en el software.
¿Y
el futuro? Sánchez-Montañés lo tiene bastante claro. “Nuestro mundo va
cada vez más hacia el software, es cada vez más virtual. El límite
siempre lo va a marcar el hardware principalmente, porque hoy hay
algoritmos de inteligencia artificial que tienes que dejar corriendo
varios días hasta que llegan a unas conclusiones. Si tuvieras máquinas
más potentes, seguro que podías dar con conclusiones más potentes”.
Pablo G. Bejarano, Los límites de la inteligencia artificial, el diario.es, 25/11/2013
Comentaris