Privacitat és poder (Carissa Véliz)



Todas nuestras conversaciones incluyen información sensible. Solemos hablar de todos los aspectos de nuestra vida –desde enfermedades hasta posiciones políticas–, y esa información, fuera de la esfera privada, nos hace vulnerables. Eso no quiere decir que empresas como Facebook escuchen directamente lo que decimos a través del micrófono del ordenador. Al menos no existen evidencias de ello. Lo que sí se ha demostrado es que, por ejemplo, algunos televisores inteligentes captan palabras para hacernos sugerencias. Incluso hay compañías que analizan los e-mails de los empleados para identificar a aquellos que no están contentos.

Existen brókeres de datos que poseen archivos sobre todos los usuarios de internet, en los que puedes encontrar lo que buscas online, lo que publicas en Twitter, tus préstamos o tu historial de salud. Estos datos se venden a aseguradoras, bancos, gobiernos o, simplemente, a quien quiera comprarlos. Algunos se utilizarán de manera legítima y otros no, aunque tú no te enterarás nunca, claro. Hay empresas que, por ejemplo, deciden las contrataciones de sus empleados en función de los datos: si se enteran de que estás intentando tener un hijo o de que padeces alguna enfermedad, elegirán a otro candidato y tú jamás sabrás cuál ha sido el criterio utilizado para tomar la decisión. Mientras las empresas tengan acceso a los datos, nunca estaremos al 100% seguros de que no los van a utilizar para mal, porque no existe una policía de datos que vigile. La información sensible crea vulnerabilidad en el sujeto de los datos, pero también en toda la sociedad. La privacidad no es solo una cuestión individual, sino colectiva. El caso más claro es el de Cambridge Analytica, en el que 270.000 personas compartieron sus datos y estos acabaron utilizándose para manipular la democracia.

Creo que podríamos fijar el inicio en el año 2001, cuando la Federal Trade Commission de Estados Unidos recomendó al Congreso regular la economía de datos por miedo a que se descontrolara. Muchas de aquellas recomendaciones se parecían a lo que luego ha quedado regulado en el Reglamento General de Protección de Datos europeo: que la gente debería tener derecho a la protección de sus datos, a pedir que sean borrados, a que se corrijan si hay algún error, etc. El problema es que, después de esa petición, llegó el 11-S y lo cambió todo. El Gobierno estadounidense se sintió culpable de no haber prevenido los ataques y decidió hacer lo que fuese necesario con tal de evitar otro atentado. Una de las medidas que se tomaron en nombre de la seguridad nacional fue la de hacer una copia de todos los datos recopilados por las empresas. Desafortunadamente, el big data ha demostrado no ser un método adecuado para prevenir el terrorismo: este es muy bueno cuando tenemos muchísimos datos sobre algo concreto, como los productos que la gente compra por internet, pero no para cuestiones generales. El problema fue que se permitió que las empresas recolectasen la mayor cantidad de datos posibles a cambio de algo que en realidad no funcionó. Además, nunca se les preguntó a los ciudadanos ni se sometió esa decisión a un escrutinio público. Al final, acabamos enterándonos de cómo funcionaba el mundo una década más tarde. Son situaciones como esa las que nos hacen pensar que vivimos en una sociedad que se rige bajo unas reglas que desconocemos por completo.

En el caso del coronavirus, la evidencia sugiere que las apps (que tuvieron muchos problemas desde el principio) no fueron fundamentales para frenar la pandemia. De hecho, recientemente, en el MIT Technology Review se publicó un artículo muy interesante sobre dos análisis en los que se estudiaron cientos de herramientas de inteligencia artificial utilizadas para diagnosticar y prevenir los contagios. La conclusión fue que, de todas ellas, ninguna había funcionado. Algunas incluso habían agravado la situación porque se cometieron errores garrafales con los algoritmos. Entonces, ¿la inteligencia artificial puede ayudar? En algunos casos, sí. Pero no podemos ser tan inocentes y creer que es una varita mágica que va a solucionar todos nuestros problemas; mucho menos, creer que podemos dar cualquier cosa a cambio.

Lo que necesitamos es una regulación. Y para que funcione hacen falta cambios culturales, que la gente sea consciente de la importancia que tiene la privacidad y que esté dispuesta a defenderla. Ni siquiera es necesario que todo el mundo lo haga; basta con que el 5-10% de la población se resista lo suficiente. En el libro doy muchos ejemplos de lo que la gente puede hacer, pero uno de los más importantes implica escoger servicios que den privacidad. Por ejemplo, conviene utilizar Signal en vez de WhatsApp; en lugar de Google Search, navegar con DuckDuckGo, o utilizar ProtonMail frente a Gmail, entre otras alternativas. También podemos contactar con los representantes políticos y transmitirles que lo que hacen con nuestros datos es algo que nos preocupa, o pedirle a las empresas que los borren. Incluso si no lo hacen o si tardan años en responder, esa petición deja en evidencia que no tienen nuestro consentimiento.


Es esencial defender nuestra privacidad para proteger la democracia. Eso es lo más importante, porque creo que la democracia está en peligro por la polarización, por las empresas, por la corrupción interna, etc. Pero también por influencias externas como China, que es claramente un país no democrático con cada vez más poder que busca liderar cuestiones de inteligencia artificial. También serviría para defender valores como la justicia o la imparcialidad y asegurar que nadie sea discriminado por sus datos. A nivel personal, ayudaría a protegernos de los abusos de los empleadores. Es algo que parece que se ha acentuado con la pandemia y el teletrabajo: hay una tendencia a no respetar la vida privada de la gente. Antes se iba al trabajo de 8:00 a 17:00 horas o de 9:00 a 18:00 horas y, al terminar, te ibas a casa y dejabas de trabajar. Sin embargo, con el teletrabajo cada vez hay más presión para que estemos todo el tiempo respondiendo mensajes o llamadas, o trabajando gratis. Parece que nuestra esfera privada se encoge cada vez más, y eso preocupa por cuestiones democráticas, pero también por cuestiones de libertad y de bienestar.

Jara Atienza, entrevista a Carissa Véliz: "Debemos defender nuestra privacidad para defender la democracia", ethic.es 30/12/2021

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

Gonçal, un cafè sisplau

"¡¡¡Tilonorrinco!!! ¡¡¡Espiditrompa!!!"