Com sorprendre a l'algoritme.
Cada vez se presta más atención al modo en que algunas compañías utilizan los algoritmos para teledirigir comportamientos y opiniones públicas. Uno de los instrumentos a través de los cuales se realiza este modelaje sibilino es la sugerencia de contenido, productos o servicios. Los motores de recomendación están ya en todas partes: en la plataforma de comercio electrónico que habitualmente utilizas, en la plataforma de vídeo que ves, en la aplicación de música y podcasts que escuchas, en las redes sociales en las que te informas o compartes contenido… En todos lados.
En 2018, un grupo de investigadores del MIT publicó un estudio en el que alertaba sobre las consecuencias imprevistas de estos motores de recomendación. La investigación revelaba cómo las recomendaciones no solo reflejan las preferencias de los consumidores sino que, incluso, las moldean. Según advertía entonces el estudio, estos sistemas tienen el potencial de fomentar sesgos.
Cuatro años después, otro interesante estudio del Ada Lovelace Institute analizaba el uso y la ética de los sistemas de recomendación en los medios de servicio público como la BBC. En el documento se abordaban cuestiones como en qué medida estos sistemas de recomendación terminan dañando la autonomía personal, fomentan la polarización o generan sesgos y desigualdades sociales.
La semana pasada abordábamos si la difusión masiva de desinformación exigía una reforma constitucional, algo que José Manuel Vera Santos, catedrático de Derecho Constitucional de la Universidad Rey Juan Carlos, rechaza, apuntando a Público que "no es el texto constitucional el que ha quedado superado; lo que ha cambiado de manera radical es el ecosistema en el que ese texto opera o se proyecta".
Vera Santos sostiene que "el espacio público ya no se organiza solo en torno a periódicos, radios o televisiones, sino que gran parte de lo que vemos y leemos depende de algoritmos que deciden qué contenidos aparecen en nuestras pantallas y cuáles quedan ocultos". Ahí es donde entran en juego muchos de estos motores de recomendación, que terminan generando lo que se conoce como ‘filtros burbuja’, es decir, que priorizan contenido en línea con lo que anteriormente ya se ha consumido, de manera que las posibilidades de disfrutar de otra perspectiva son mínimas. Si hubiera algún interés de evitar esta circunstancia por parte de las plataformas, bastaría con que los desarrolladores optimizaran esa personalización de contenido introduciendo aleatoriamente otros puntos de vista diversos.
¿Qué podemos hacer desde nuestra esfera personal? Recientemente, el profesor de Ciencias Políticas en la California Lutheran University, José Marichal, ha publicado un libro titulado You Must Become an Algorithmic Problem (Debes convertirte en un problema algorítmico). En esta publicación, el experto nos conmina a ser casos atípicos para los sistemas de IA, a representar un problema algorítmico que rompa con los esquemas de entrenamiento de los motores de recomendación.
Una de las principales preocupaciones de Marichal es que perdamos la capacidad de sorprendernos, de descubrir, dado que las respuestas que proporcionan los sistemas de IA son modales, promedio y predecibles. Dicho de otro modo, por lo general, eliminan la novedad, lo realmente diferente, aunque existan maneras de interactuar con la IA para llegar a la pluralidad y a lo creativamente distinto. Sin embargo, para hacerlo, es preciso romper la suerte de contrato algorítmico que explícitamente mantenemos con la plataforma o la red social de turno.
El primer paso, claro está, es asumir que en nuestra interacción con los algoritmos estamos sujetos de algún modo a un contrato social, según el cual, si siempre habitamos el mismo espacio digital, no sólo no saldremos de él, sino que terminaremos por pensar que es el único existente o, al menos, el único válido para nosotros, cuando no es así realmente. La IA y los motores de recomendación tienden a agruparnos, a considerarnos seres binarios que si opinan A no pueden opinar B. Este planteamiento nos hace absolutamente predecibles cuando, en realidad, eso es contrario a la condición humana. Decía Walt Whitman en su poema Canto a mí mismo "soy inmenso y contengo multitudes" y ese es el espíritu que tendríamos que recuperar.
Marichal reivindica nuestra capacidad para dudar, para no aseverar tajantemente y poder cambiar de opinión cuando las argumentaciones nos convencen de ello o, incluso, no posicionarnos en todas las cuestiones. Ese giro representa un problema algorítmico para la IA, que no es capaz de anticiparlo. El profesor va un paso más allá y anima a ponerse en situaciones donde uno se siente incómodo e interactuar con contenido y material que podría no ser la norma en los grupos en los que habitualmente participa. "Es hora de romper el acuerdo tácito que tenemos con las empresas tecnológicas" afirma Marichal.
En esencia se trata de nadar a contra corriente de la dataficación (para la IA somos meros datos), de romper con nuestro yo determinado algorítmicamente. Debemos anticiparnos a las situaciones en las que sea precisa la participación de la Justicia que, por otro lado y según expone Vera Santos, han de ampliar su formación. El catedrático afirma que "si los operadores jurídicos no comprenden mínimamente cómo funcionan los algoritmos, qué es técnicamente posible con la IA o cómo circula la información en redes sociales, difícilmente podrán aplicar con precisión categorías como identidad, veracidad, diligencia, responsabilidad o daño reputacional".
David Bollero, Rompe con tu yo algorítmico, publico.es 28/02/2026
Comentaris