A mi ningú m'enganya.
Las mentiras profundas no suponen un salto filosófico respecto a las mentiras a secas (fakes) que ya distorsionaron impunemente la elección en la que Donald Trump llegó al poder y la campaña que sacó al Reino Unido de la Unión Europea, por citar sus dos mayores éxitos. Los fundamentos psicológicos de ambas modalidades son los mismos: la gente tiende a creerse, y a propagar, cualquier mentira que coincida con sus prejuicios; etiquetar un bulo como tal no impide que se lo sigan creyendo y lo sigan diseminando; la repetición machacona de una falsedad la convierte en verdad para las audiencias acríticas. Pero un vídeo bien falsificado funciona aún mejor que una mentira escrita. Ver es creer, al fin y al cabo. Nos podemos preparar para lo peor.
Nuestra confianza en que somos capaces de distinguir los vídeos reales de los falsos carece de apoyo empírico. Una investigación de psicología experimental presentada en iScience con 210 voluntarios muestra que no distinguimos los deepfakes de los vídeos verdaderos, que encima tendemos a considerar falsos los que son auténticos, y que todos sobrestimamos nuestra habilidad de discernimiento. Por muy listo que te creas, puedes hundirte hasta las trancas en las arenas movedizas de la mentira profunda.
Los científicos de la computación llevan tiempo buscando formas de distinguir un vídeo real de uno falso, y cada vez resulta más difícil. Es verdad que, incluso con la IA más moderna, suele haber detalles que delatan el fraude. Todos nos quedamos atónitos con el deepfake del papa Francisco envuelto en un impresionante papa-plumas blanco. Aquello parecía de verdad. Un experto puede detectar que no lo es, porque la sombra de sus gafas está en un lugar de la cara que no encaja con el resto de la iluminación de la escena. De modo similar, el habla generada por IA falla en los titubeos, las respiraciones y las sutilezas del movimiento de los labios. Pero hay que ser un experto para darse cuenta. Los demás no nos fijamos en esas cosas, y es demasiado pedirnos que lo hagamos.
Hay muchas empresas grandes y pequeñas desarrollando software para detectar deepfakes, pero los intoxicadores tampoco se están quietos. El resultado va a ser una carrera de armamentos, como la que mantienen las conchas cada vez más duras de los caracoles y las pinzas cada vez más fuertes de las langostas. Pura biología.
Javier Sampedro, El engañoso olor de verdad, El País 01/02/2024
Comentaris