68 likes.








Cada vez que recibimos publicidad en nuestro móvil, cuando queremos ver una película o se nos aparece en una red social la publicación de un amigo en detrimento de otro, hay detrás un algoritmo. También lo hay cuando buscamos información en Google, se nos destacan determinadas noticias, le hablamos a Alexa en nuestra casa inteligente o le pedimos al ChatGPT que nos ayude a escribir algo.

Pero esto no se queda aquí: ya existen Estados que usan los algoritmos para diseñar políticas públicas, sistemas de vigilancia o predecir comportamientos delictivos. Todo en menos de una década y en pleno proceso de aceleración. Salir de ese control y de esa continua cesión voluntaria de datos resulta imposible para cualquiera que pretenda una vida en sociedad.

...la destrucción de la privacidad que supone el extractivismo de datos que, en el mejor de los casos, está al servicio de la cultura del consumo hedonista y, en el peor, es material esencial para el control de los ya mencionados sistemas de vigilancia llevados adelante por los Estados especialmente después de la pandemia.

John Sudworth, un periodista de la BBC hizo un experimento en colaboración con la policía de Guiyang, una ciudad china de más de tres millones de habitantes. Los agentes solo tenían su foto, no sabían a dónde se dirigía y el experimento consistía en averiguar cuánto tiempo tardaría el sistema de vigilancia en encontrarlo. Fueron solo siete minutos. Sí, tan sorprendente y atemorizante como el resultado de un trabajo realizado por Michal Kosinski con 58.000 voluntarios.

En este caso, se comprobó que con solo 68 likes que una persona brinde en alguna red social, el programa diseñado por el investigador era capaz de describir la personalidad del voluntario con bastante éxito, pero también el color de piel (95% de aciertos), la inclinación sexual (88%) y hasta su filiación política (85%).

Laura G. Rivera afirma en su libro Esclavos del algoritmo :«Tenemos demasiado inculcada la creencia de que un puñado de unos y ceros será, sin duda, más racional, efectivo e infalible que un humano. Pero si creemos eso es porque olvidamos que ese código informático ha sido entrenado con datos del pasado, de cientos de miles de decisiones y valoraciones hechas por personas. Con sus propios prejuicios, sus errores y su forma subjetiva de ver el mundo. Por eso, por muy sofisticado y excelente que sea, todo lo que puede llegar a hacer el machine learning es replicar los prejuicios con los que haya sido entrenado».

En la misma línea, el libro apunta a aquellos que se maravillan con las posibilidades literarias de la IA y hasta hablan de máquinas sintientes, eventuales personas con derechos. Frente a ello, de Rivera aclara que una IA podrá escribir un libro, pero no entiende lo que dice ni lo que le preguntas. Es solo un modelo matemático ultrasofisticado que en tiempo récord calcula la probabilidad de que una palabra venga después de otra.

Dante Augusto Palma, Los esclavos (y los dueños) del algoritmo, theobjetive 17/01/2025

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

Gonçal, un cafè sisplau

Contra el disseny intel.ligent