divendres, 25 de març de 2016

Utilitarisme i Intel.ligència Artificial.



En 1920, el checo Karel Capek escribió la obra de teatro R.U.R. (Rossum’s Universal Robots) que serviría tiempo después para bautizar a los autómatas como ‘robots’. En aquel libreto, los robots inteligentes terminaban matando a todos los seres humanos excepto a uno: el mecánico. Más recientemente, han sido muchas las películas que han abordado la ‘robo-ética’, desde la magistral 2001, Odisea del Espacio, a Terminator, Yo, robot o Inteligencia Artificial, entre muchas otras.

En este sentido, sería imperdonable no mencionar al autor Isaac Asimov, que popularizaría el término ‘Inteligencia Artificial’, junto a las famosas Tres Leyes de la Robótica:
1.- Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2.- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3.- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

Esta cuestión, la de la roboética, comienza a dejar de ser pura ficción y situarse en primera línea de consideración, no sólo moral, sino legal. Y es que los asistentes robóticos y las máquinas inteligentes son cada vez más numerosos y sofisticados. Lo podemos ver, por ejemplo, en la feria de la electrónica CES que se celebra esta misma semana en Las Vegas, en donde sólo el espacio destinado la robótica ha crecido este año un 71% respecto a la edición anterior.

Las máquinas inteligentes están actualmente mucho más operativas de lo que pudiera parecer, incluso, en la Bolsa. En los mercados bursátiles esta inteligencia artificial realiza cálculos y operaciones en microsegundos que, precisamente por su rapidez, marcan la diferencia entre conseguir beneficios o pérdidas en ciertas transacciones. Sin embargo, no es infalible: ya en 2010 provocó lo que se denominó un flash crash y el año pasado la Bolsa de Nueva York tuvo que suspender la negociación de todos los valores que cotizaban en su plataforma por problemas técnicos. Es lo que sucede cuando uno deja sus finanzas en manos únicamente de los algoritmos sin supervisión humana.

Más allá de los aspectos meramente operativos, surge la polémica de la ética y las valoraciones morales de los robots o de las máquinas inteligentes. En el caso concreto de la Bolsa, uno podría preguntarse cómo es posible embeber criterios morales en esos algoritmos especuladores si los propios seres humanos que operan en esos mercados, en muchos casos, carecen de ellos al estar al servicio del capitalismo.

Aparecen ahora los coches sin conductor o los recepcionistas de hoteles inteligentes. Si los seres humanos nos regimos por una serie de normas y regulaciones, ¿qué sucederá con estos ingenios cada vez más autónomos? ¿Es posible construir máquinas éticas capaces de calcular la mejor acción utilizando para ello principios éticos y determinar así reglas éticas?

El ejemplo del coche si conductor es uno de los más válidos. Este tipo de vehículos autónomos calculan la mejor opción en caso de un potencial accidente. Las estadísticas que manejaba Google el año pasado en referencia a su coche sin conductor es que en un 1 millón de millas recorridas, únicamente se habían producido 12 accidentes y ninguno de ellos había sido provocado por el coche autónomo, lo que no por ello le exime de tomar una decisión en caso de accidente.

El utilitarismo

Una de las corrientes que aparecen a este respecto es el utilitarismo, que viene a simplificar el asunto reduciéndolo a una cuestión de realizar un cálculo exhaustivo para determinar cuál es la acción más óptima en función de una circunstancia concreta. El bien colectivo sería el sostén de estos cálculos pues, en esencia, el imperativo utilitarista es la maximización del placer entendido éste como la creación de la mayor cantidad de bien para el mayor número de personas posible.

La teoría que defiende el utilitarismo viene a decir que si los humanos tendemos a estimar el placer neto (o bien común) de una acción concreta, las máquinas pueden calcularlo exactamente gracias a su capacidad de proceso. La ecuación que surge para calcular el placer neto sería:

Placer neto = Σ (intensidad x duración x probabilidad)

Sumando los placeres netos para cada uno de los individuos implicados en una acción, no daría el total que ayudaría a tomar la decisión sobre la mejor opción.

A su favor, los defensores destacan la imparcialidad, pues esta ecuación trata del mismo modo a todos los sujetos. Entre las consideraciones de un robot no entran conceptos como el amor o el afecto algo que puede influir en determinadas situaciones. Por ejemplo: Un coche sin conductor circula y, de pronto, ha de hacer frente a un accidente inevitable. Su toma de decisión será mucho más rápida que la de un ser humano, al no verse afectada por variables como el instinto de supervivencia. Así, no dudará en preferir la muerte de una sola persona (el ocupante del vehículo) en favor de los tres peatones que salva con ello.

Algunos expertos aseguran que las máquinas inteligentes deberían ser capaces de algo más que seguir un conjunto prescrito de normas éticas, pero la opción de programar todas las reglas que a los humanos nos gustaría que los robots siguieran probablemente sería demasiado costoso. De lograrlo, hablaríamos de los denominados ‘agentes éticos explícitos’, que son aquellas máquinas capaces, no sólo de seguir un conjunto básico de reglas éticas, sino también de abstraer principios éticos a partir de sus acciones y de las consecuencias de éstas.

La pregunta que surge entonces es ¿con qué criterios se realiza esa abstracción? ¿Realmente el utilitarismo es válido? Un argumento detractor típicamente esgrimido: Cuanto más crece la población menores recursos hay para repartir, por lo que un razonamiento utilitarista llamaría a limitar la población en lugar de, quizás, rebajar el bienestar global en favor de que seamos más los que convivamos. La polémica está servida.

David Bollero, ¿Es posible la robo-ètica?, Público 05/01/2016