Programar decisions ètiques?

Zombis éticos
Durante los tres primeros días del pasado mes de septiembre se celebró en Birmingham (Reino Unido) TAROS 14, un encuentro de especialistas en robótica. Más concretamente, quienes se dieron cita en el encuentro investigan o están interesados en sistemas robóticos autónomos (de ahí TAROS: Towards Autonomous Robotic Systems). Es un campo muy activo, pues las previsiones para los próximos años contemplan la incorporación de robots a tareas diversas en distintas esferas de nuestras vidas. Los habrá que cuiden de enfermos o de personas mayores; otros serán responsables de nuestra seguridad; la prescripción de ciertos medicamentos será también tarea de robots. Y seguramente ahora no podemos ni imaginar algunas actividades que llegarán a serles asignadas.

En uno de los estudios presentados en TAROS 14 los investigadores programaron un robot cuya tarea consistía en tratar de evitar que otro robot cayese por un agujero. El otro autómata representaba a un ser humano, y se trataba de someter a prueba, de forma un tanto simple, la primera ley de la robótica de Asimov, esa que establece que un robot no debe permitir que un ser humano sufra algún daño. Al principio el robot lo hacía bien; conforme el “ser humano” se aproximaba al agujero el robot lo apartaba del camino, evitando de esa forma que cayese. Los problemas empezaron cuando los investigadores introdujeron un segundo “ser humano” en escena. Al acercarse al agujero los dos autómatas que representaban a seres humanos a la vez, el robot se veía obligado a elegir. En algunas ocasiones se las arregló para salvar a uno, mientras el otro se precipitaba al agujero, e incluso, en algún caso llegó a salvar a los dos. Pero en 14 pruebas de las 33 que pusieron en práctica, los dos autómatas que representaban a personas cayeron al agujero. El robot utilizó demasiado tiempo para examinar la situación y tomar una decisión.

El investigador que presentó los resultados de este estudio en Birmingham se refirió a su robot como un zombi ético, ya que no tiene opción de comportarse de forma diferente a como lo hizo. Gracias al código de conducta con el que se le había dotado puede salvar a otros, pero desconoce el razonamiento que subyace a sus actuaciones. No es cuestión baladí y puede tener, además, importantes implicaciones en un futuro mucho más próximo del que imaginamos. Pensemos, por ejemplo, en los automóviles sin conductor que se están diseñando. Podría darse el caso de que el sistema robótico del vehículo tenga que optar entre garantizar la seguridad de sus pasajeros o la de peatones o conductores de otros vehículos. Y no parece nada fácil programar a esos sistemas para que desempeñen bien su tarea.

El anterior es sólo un ejemplo de las disyuntivas a que se podrán enfrentar o los dilemas morales que se les podrán presentar a los autómatas en un futuro no demasiado lejano. Y el aspecto ético no es el único al que prestar atención. Algunos robots serán cada vez más antropomorfos, y sus habilidades cognitivas y comunicativas alcanzarán un alto grado de sofisticación. No sabemos qué nivel de humanización llegarán a tener. De hecho, el Roy Batty y sus compañeros replicantes Nexus-6 de la película Blade runner no tienen por qué ser una quimera. Aquéllos carecían de empatía, pero dotar a los robots de algo similar a ciertas emociones muy básicas quizás llegue a ser posible y acabe resultando necesario para que puedan desempeñar determinadas funciones.

¿Ciencia ficción? Quizás pero, por si acaso, deberíamos reflexionar sobre todo esto, porque la tecnología nos proporcionará sujetos artificiales acerca de los cuales deberemos tomar importantes decisiones.

Juan Ignacio Pérez, Zombis éticos, Cuaderno de Cultura Científica, 14/12/2014

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

Gonçal, un cafè sisplau

Què és el conatus de Spinoza?