Màquines esbiaixades.



Al ser preguntada por la brecha salarial entre hombres y mujeres, Fuencisla Clemares, directora general de Google España, vino a decir que en su empresa no sabían lo que era eso. Allí, un algoritmo ciego a las cuestiones de género propone cuánto debe cobrar cada uno. La frialdad de las matemáticas puede lograr decisiones más objetivas y libres de prejuicios. Pero, ¿y si las máquinas tienen su propio sesgo? ¿Y si este es aún más invisible que el de los humanos?
Un reciente artículo del Financial Times contaba cómo en una empresa estadounidense de atención telefónica, la valoración del trabajo de los empleados había pasado de los humanos a las máquinas. Pero que estas puntuaban con una nota más baja a aquellos con un fuerte acento, ya que a veces no podían entender lo que decían. Ejemplos como este muestran el riesgo creciente de que los algoritmos se alcen como los nuevos jueces de un tribunal supremo e inapelable.
Esteban Moro, investigador de la Universidad Carlos III y del Massachusetts Institute of Technology (MIT) centra el debate en una palabra: la escala. “El problema no es que los algoritmos tengan sesgo, porque los humanos también los tenemos. El problema es que estas fórmulas matemáticas pueden afectar a cientos de millones de personas y tomar decisiones con efectos mucho mayores que las sentencias de un juez”, explica. Así, una persona que busca empleo puede librarse de la tiranía de los gustos o prejuicios del director de recursos de una u otra empresa. Pero a cambio se enfrenta a los criterios que comparten macroportales de ofertas de trabajo. El monstruo se hace más grande.
Juan Francisco Gago, director de Prácticas Digitales en Minsait, de Indra, admite que, en la medida en que los algoritmos acaban tomando decisiones, pueden suscitar problemas morales. Y para ello pone el ejemplo de un aparato de inteligencia artificial capaz de hacer detecciones de cáncer. “Quizás con más precisión que un oncólogo humano”, matiza. “Pero al final, la responsabilidad no puede estar en una máquina, sino en los individuos que la programan. Es necesario que se establezca un marco regulatorio para esos casos”, asegura el directivo de Indra.
El Reglamento General de Protección de Datos, que entrará en vigor en la UE el próximo mes de mayo, establece que los ciudadanos europeos no deben ser sometidos a decisiones “basadas únicamente en el proceso de datos automáticos”, con una mención expresa a las “prácticas de contratación digital sin intervención humana”.
El equipo del MIT donde trabaja Moro desarrolla un proyecto de ingeniería inversa donde se pretende analizar cómo trabajan los algoritmos de gigantes como Google y Facebook. La idea es hacer experimentos con personas que introducen diversas informaciones en las redes, para ver luego cómo estas empresas reaccionan. Se trata, en el fondo, de intentar domar a la bestia y ver si es posible conocer cómo funcionan fórmulas matemáticas que tienen un impacto en nuestras vidas. Un impacto que nadie duda irá a más en los próximos años.
Luis Doncel, La era del algoritmo ha llegado y tus datos son un tesoro, El País 03/03/2018

Comentaris

Entrades populars d'aquest blog

Freud: la geneologia de la moral.

Zombificació.