Programar decisions ètiques?
Durante los tres primeros días del pasado mes de septiembre se
celebró en Birmingham (Reino Unido) TAROS 14, un encuentro de
especialistas en robótica. Más concretamente, quienes se dieron cita en
el encuentro investigan o están interesados en sistemas robóticos
autónomos (de ahí TAROS: Towards Autonomous Robotic Systems).
Es un campo muy activo, pues las previsiones para los próximos años
contemplan la incorporación de robots a tareas diversas en distintas
esferas de nuestras vidas. Los habrá que cuiden de enfermos o de
personas mayores; otros serán responsables de nuestra seguridad; la
prescripción de ciertos medicamentos será también tarea de robots. Y
seguramente ahora no podemos ni imaginar algunas actividades que
llegarán a serles asignadas.
En uno de los estudios presentados en TAROS 14 los investigadores
programaron un robot cuya tarea consistía en tratar de evitar que otro
robot cayese por un agujero. El otro autómata representaba a un ser
humano, y se trataba de someter a prueba, de forma un tanto simple, la
primera ley de la robótica de Asimov, esa que establece que un robot no
debe permitir que un ser humano sufra algún daño. Al principio el robot
lo hacía bien; conforme el “ser humano” se aproximaba al agujero el
robot lo apartaba del camino, evitando de esa forma que cayese. Los
problemas empezaron cuando los investigadores introdujeron un segundo
“ser humano” en escena. Al acercarse al agujero los dos autómatas que
representaban a seres humanos a la vez, el robot se veía obligado a
elegir. En algunas ocasiones se las arregló para salvar a uno, mientras
el otro se precipitaba al agujero, e incluso, en algún caso llegó a
salvar a los dos. Pero en 14 pruebas de las 33 que pusieron en práctica,
los dos autómatas que representaban a personas cayeron al agujero. El
robot utilizó demasiado tiempo para examinar la situación y tomar una
decisión.
El investigador que presentó los resultados de este estudio en Birmingham se refirió a su robot como un zombi ético,
ya que no tiene opción de comportarse de forma diferente a como lo
hizo. Gracias al código de conducta con el que se le había dotado puede
salvar a otros, pero desconoce el razonamiento que subyace a sus
actuaciones. No es cuestión baladí y puede tener, además, importantes
implicaciones en un futuro mucho más próximo del que imaginamos.
Pensemos, por ejemplo, en los automóviles sin conductor que se están
diseñando. Podría darse el caso de que el sistema robótico del vehículo
tenga que optar entre garantizar la seguridad de sus pasajeros o la de
peatones o conductores de otros vehículos. Y no parece nada fácil
programar a esos sistemas para que desempeñen bien su tarea.
El anterior es sólo un ejemplo de las disyuntivas a que se podrán
enfrentar o los dilemas morales que se les podrán presentar a los
autómatas en un futuro no demasiado lejano. Y el aspecto ético no es el
único al que prestar atención. Algunos robots serán cada vez más
antropomorfos, y sus habilidades cognitivas y comunicativas alcanzarán
un alto grado de sofisticación. No sabemos qué nivel de humanización
llegarán a tener. De hecho, el Roy Batty y sus compañeros replicantes
Nexus-6 de la película Blade runner no tienen por qué ser una
quimera. Aquéllos carecían de empatía, pero dotar a los robots de algo
similar a ciertas emociones muy básicas quizás llegue a ser posible y
acabe resultando necesario para que puedan desempeñar determinadas
funciones.
¿Ciencia ficción? Quizás pero, por si acaso, deberíamos reflexionar
sobre todo esto, porque la tecnología nos proporcionará sujetos
artificiales acerca de los cuales deberemos tomar importantes
decisiones.
Juan Ignacio Pérez, Zombis éticos, Cuaderno de Cultura Científica, 14/12/2014
Comentaris