En La siliconización del mundo, el filósofo francés Éric Sadin escribe sobre cómo las empresas tecnológicas usan los datos que recogen de nosotros no solo para vendernos publicidad, sino con el objetivo de elegir por nosotros:
- No solo nos recomendarán qué camino seguir, sino que el coche autónomo lo tomará por nosotros.
- No solo nos propondrán una serie que quizás nos guste, sino que nos la enchufarán directamente.
- No solo nos saltará una alerta que nos diga cuándo se han terminado los yogures o las uvas, sino que la nevera hará la compra sin preguntarnos antes.
El objetivo de esta automatización, escribe Sadin, es “reducir el margen de libertad de los seres y pueblos en beneficio de una organización automatizada de las cosas y de una mercantilización de todos los instantes de la vida cotidiana”.
Sadin defiende la necesidad de romper con este sistema y de negarnos a formar parte: no deberíamos llevar gafas inteligentes, ni pulseras que midan nuestros pasos y nuestra actividad, ni otro tipo de servicios y aplicaciones similares. Algunos ingenieros de Silicon Valley creen que pueden ofrecernos una vida perfecta, sin enfermedades, ni accidentes de tráfico, pero esto no es más que otra utopía que amenaza con recortar nuestra libertad y que puede llevar a que nos suban el precio del seguro por no llegar a los 7.000 pasos diarios, o que nos nieguen un crédito porque el algoritmo dice que en nuestro barrio hay más morosos, o que nos despidan porque tecleamos muy lento.
Eso sí, cuando la lavadora detecte que nos hemos quedado sin suavizante, se lo encargará a Amazon. No lo podremos pagar, pero los embargos también serán automáticos.
Hemos de recordar que los algoritmos y la tecnología no son perfectos, sino que son muy brutos y, lo que es peor, opacos, con mecanismos y criterios que se suelen ocultar con la excusa de la propiedad intelectual. Estos programas no solo cometen errores, sino que también tienen efectos secundarios que dependen de un diseño que prima el beneficio económico y no nuestro bienestar, aunque las empresas digan lo contrario.
Por ejemplo:
- Twitter y YouTube solo quieren que pasemos tiempo en su plataforma, sin importarles qué vemos, por lo que acaban promocionando noticias falsas, bulos y, en el caso de la guerra en Israel y Gaza, imágenes atroces. (Por cierto, sobre esto escribía ayer mi amiga y exjefa Delia Rodríguez en La Vanguardia).
Los algoritmos que toman decisiones por nosotros se están probando en multitud de campos: la banca, la justicia, los seguros médicos… Con resultados a menudo catastróficos de los que nadie se responsabiliza, como si un algoritmo fuera una seta que sale sola a la que llueve un poco.
Sadin no propone esta renuncia solo porque las máquinas pueden fallar: incluso aunque las decisiones de los algoritmos fueran perfectas y nadie cayera nunca por un barranco por culpa de Google Maps, es mejor que nosotros cometamos nuestros propios errores a que dejemos todas las decisiones en manos de programas informáticos y acabemos convertidos en consumidores pasivos. No se trata de volver al siglo XIV —no creo que Sadin escriba con pluma de ganso a la luz de las velas—, pero sí de reivindicar nuestra autonomía y nuestra responsabilidad.
Puede parecer difícil oponerse a lo que se vende como una tendencia imparable (¡que viene la IA!), pero Sadin nos recuerda que nosotros tenemos la última palabra y que ha habido multitud de cambios históricos que parecían inevitables y que quedaron en nada. Si fracasaron las gafas de Google también pueden fracasar las de Facebook, aunque tengan la montura de unas Ray Ban (o precisamente por eso). Somos nosotros quienes debemos decidir qué hacer y cómo, de acuerdo con nuestros valores y prioridades, y tras un debate público y transparente.
Jaime Rubio Hancock, Kant contra los algoritmos, Filosofía inútil 18/10/2023 |
Comentaris