Big Data i justícia
Dentro de la comunidad científica también se han identificado una serie de retos sociales, éticos y legales relacionados con la toma de decisiones de manera algorítmica, que afectan a cuestiones como la privacidad, la seguridad, la transparencia, la ambigüedad con relación a la responsabilidad, los sesgos o la discriminación. De hecho, en 2014, la Casa Blanca publicó el informe Big Data: capturando oportunidades, preservando valores, que subraya la discriminación potencial que pueden contener los datos e identifica ciertos riesgos con relación al uso de datos personales para tomar decisiones sobre el crédito, la salud o el empleo de las personas. Corremos el riesgo de sustituir la “tiranía de los expertos” por una “tiranía de los datos” si no somos conscientes y tomamos medidas para minimizar o eliminar las limitaciones inherentes en las decisiones basadas en datos.
Para poder aprovechar adecuadamente el potencial de las decisiones basadas en datos y avanzar hacia un mundo más justo, honesto e igualitario hay cuatro retos importantes que debemos resolver en el empleo de algoritmos en la toma de decisiones.
El primer escollo es la garantía de la privacidad de las personas. A medida que los algoritmos tienen acceso a datos procedentes de un número creciente de fuentes, incluso cuando dichos datos son anónimos, de su cruce y combinación podrían inferirse ciertas características sobre una persona en particular, aunque esta información nunca haya sido desvelada por la misma, como ilustra el trabajo de Yves Alexandre de Montjoye. Afortunadamente, pueden tomarse medidas para minimizar o eliminar este impacto en la privacidad, como la agregación de datos anónimos.
Otro reto es la asimetría en el acceso a la información. Podríamos llegar a una situación en la que una minoría tiene acceso a datos y dispone del conocimiento y las herramientas necesarias para analizarlos, mientras que una mayoría no. Esta situación exacerbaría la asimetría ya existente en la distribución del poder entre los Gobiernos o las empresas, de una parte, y las personas, de otra. Iniciativas para promover datos abiertos (open data) y programas de educación que fomenten la alfabetización digital y el análisis de datos son dos ejemplos de medidas que se podrían desarrollar para mitigar esto.
El tercer punto controvertido es la opacidad de los algoritmos. Jenna Burrell habla de un marco que caracteriza la opacidad de los algoritmos en tres tipos: 1) opacidad intencionada, donde el objetivo es la protección de la propiedad intelectual; 2) opacidad por ignorancia, porque la mayoría de los ciudadanos carecen del conocimiento técnico para entender los algoritmos de inteligencia artificial subyacentes; y 3) opacidad intrínseca, resultado de la naturaleza de las operaciones matemáticas utilizadas, que en muchas ocasiones son muy difíciles o imposibles de interpretar. Estos tipos de opacidad pueden minimizarse con la introducción de legislación que obligue al uso de sistemas abiertos, con programas educativos en pensamiento computacional, con iniciativas para explicar a ciudadanos sin conocimientos técnicos cómo funcionan los algoritmos de toma de decisiones y con el uso de modelos de inteligencia artificial que sean fácilmente interpretables, aunque satisfacer tal condición implique utilizar modelos más sencillos u obtener resultados menores si se comparan con los obtenidos con modelos tipo caja negra.
El último reto es la exclusión social y la discriminación en potencia que podrían resultar de las decisiones tomadas por algoritmos basados en datos. Los motivos pueden ser múltiples: en primer lugar, los datos que se utilicen pueden contener sesgos que queden plasmados en dichos algoritmos; además, si no se utilizan los modelos correctamente, los resultados podrían ser discriminatorios —esto ha quedado demostrado en el reciente trabajo de Toon Calders e Indr Žliobaitė—. Otro riesgo es que a ciertos individuos se les denieguen oportunidades debido no a sus propias acciones, sino a acciones de otras personas con las que comparten algunas características. Por ejemplo, algunas empresas de tarjetas de crédito han reducido los límites de crédito de clientes no basándose en su propio historial financiero, sino a partir del análisis de datos de otros clientes con un historial financiero muy deficiente, pero que habían comprado en las mismas tiendas donde habían consumido los clientes castigados, como refleja un informe de la Federal Trade Commission en EE UU. Por esto es de vital importancia conocer bien tanto las virtudes como los problemas de los datos y de los modelos utilizados, y llevar a cabo los análisis necesarios para identificar y cuantificar las posibles limitaciones.
Núria Oliver, 'Big Data': ¿antídoto contra la corrupción?, El País 26/03/2017
Comentaris