Els vídeos amb IA amenacen la confiança.



El vídeo amb IA (així com altres mitjans audiovisuals generats per IA) és un atac directe contra una societat basada en la confiança per sobre del coneixement.

El que vull dir és això: només sabem un munt de coses de primera mà, però no moltes. Sé qui són els meus veïns, on viu la meva família i com es diu el meu gat. També sé de quin color són els plàtans de Londres carrer avall durant la tardor (groguencs amb tons vermells però ja no verds), o a quina hora de la nit s'encenen els fanals a Madrid, o, si he de ser generós amb les meves habilitats de coneixement, que la gravetat existeix (o la poma que tinc a la mà no cauria si la deixés caure).

Però què més sé de primera mà? No gaire! La major part del meu suposat coneixement és de segona mà, en el millor dels casos; confio en el testimoni d'altres persones per formar un model del món. Va descobrir Isaac Newton la llei de la gravitació universal? Sí, suposo; això és el que diuen els meus llibres de física. Va tenir un moment eureka quan un pomer li va deixar caure una poma al cap? És difícil de creure, però d'acord; no hi era per preguntar-li.

Per abordar aquesta característica fonamental d'un món complex —només pots conèixer el mínim per tu mateix—, construïm confiança en fonts seleccionades i ficcions compartides. I després continuem amb les nostres vides com si això fos un estat de coses acceptable! Ens convencem que les nostres fonts són fiables i que ho continuaran sent en qualsevol cas, com ara, per exemple, una epidèmia de deepfakes.

I la majoria ho faran, sens dubte! Però també hi ha aquelles fonts que donem per fetes com a fiables sense adonar-nos que són vulnerables a la falsificació, la suplantació d'identitat o la falsificació

... la nostra "finestra de temps crític" s'ha tancat i, com un gat nounat forçat per les circumstàncies ( o per la mà d'un experimentador ), som cecs. Haurem d'aprendre a viure invertint la dinàmica d'adquirir coneixement i construir confiança: abans confiàvem primer i comprovàvem després, i ara hem de comprovar primer i confiar després. Si és que mai ho fem.

Ara imagineu-vos el següent escenari (no és difícil de fer, malauradament): un polític poderós, diguem-ne el Sr. Odep, és captat per càmera amb una menor.

Un periodista d'un prestigiós mitjà de comunicació rep la informació filtrada d'una font anònima i diu a Twitter que publicarà un vídeo que està a punt de capgirar el món polític. El Sr. Odep rep un avís, agafa el telèfon i comença a fer trucades serioses amb la seva veu seriosa als seus poderosos —i seriosos— amics. Esbrina el nom del periodista i contacta amb el seu cap: "Aquest vídeo és un deepfake. Si el publiques, la teva reputació serà destruïda i algú pot acabar a la presó".

En paral·lel, el Sr. Odep inicia un processament no oficial i entre bastidors contra el periodista, amenaçant la seva carrera i família, mentre l'esquadró d'intel·ligència d'Odep busca els seus trapos bruts (no hi ha gaire, però ho poden compensar amb alguns deepfakes).

El periodista creu que el vídeo és real; confia en els seus ulls i sap que el Sr. Odep és un autèntic desgraciat, però la seva font és anònima; no pot estar-ne segur al 100% ara que els deepfakes són tan bons. No té proves sòlides i està arriscant massa si s'enfronta a una baralla legal amb aquest polític poderós, corrupte i seriós. El món mereix saber-ho, pensa, però amb la llei en contra seva, admet la derrota.

Ara imagineu-vos que això estableix un precedent per a tot tipus de delictes per als quals les imatges de vídeo eren, fins fa poc, un tipus de prova útil (en gran part infalsificable!). Totes les persones corruptes i poderoses del món de sobte tenen un boc expiatori útil: totes les proves poden ser acusades de ser proves falses . (Això es coneix com el dividend del mentider .)




Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

El derecho a mentir

Què faria Martha Nussbaum davant una plaga de porcs senglars?