216: Antonio Martínez Ron, Por qué no podemos dejar de estar equivocados





… algunos son capaces de defender una idea y la contraria sin que se les fundan los "plomos".
El mecanismo se ha estudiado con detalle en personas propensas a las supersticiones o que defienden teorías de la conspiración. Llevado al extremo, el mismo individuo es capaz de defender que el hombre nunca estuvo en la Luna y que los rusos tienen una base secreta en nuestro satélite. En 2011, el investigador Michael J. Wood, de la Universidad de Kent, reunió a 137 voluntarios y descubrió que entre aquellos que sostenían que Diana de Gales había sido asesinada era más frecuente creer que la princesa había simulado su propia muerte. El estudio también mostraba que entre aquellos que creían que Osama Bin Laden llevaba mucho tiempo muerto era más habitual creer que el líder de Al Qaeda seguía vivo.
A mediados de los años 50 el psicólogo Leon Festinger bautizó este mecanismo de la mente para huir de sus contradicciones como "disonancia cognitiva". Él y otros compañeros se infiltraron en una secta liderada por un ama de casa de Chicago que anunciaba la llegada del apocalipsis.  El 21 de diciembre de 1954, Dorothy Martin (conocida como "Marian Keech" por los suyos) reunió a sus acólitos en el salón de su casa y se sentaron a esperar el momento fatal en que el mundo sería destruido y ellos serían rescatados por un platillo volante. Festinger, que estaba allí aquella noche, relató en un libro lo sucedido. Cuando el reloj marcó la medianoche se produjo un silencio expectante. A las 0,05 h, algunos miembros de la secta empezaron a removerse en sus asientos. A las 0,10  en la habitación reinaba un silencio incómodo y el cataclismo no llegaba. Pasadas las 4,00 a.m., y después de varios intentos infructuosos  de los asistentes por explicar la situación, Marian Keech empezó a llorar y sufrió uno de sus ataques de "escritura automática". El "ser superior" le comunicaba que aquel acto de fe de sus seguidores había salvado al mundo de su destrucción.
Por paradójico que parezca, aquella tremenda contradicción entre las creencias y los hechos no acabó con la disolución del grupo, sino que reforzó aún más sus creencias. Festinger realizó otros experimentos para demostrar cómo somos capaces de buscar una alternativa cuando los hechos se contradicen con aquello de lo que estamos profundamente convencidos. Y la cuestión es: ¿se puede hacer algo contra ello?
"Se trata de un problema cognitivo", asegura Helena Matute, catedrática de Psicología Experimental de la Universidad de Deusto. "Buscamos información que siempre confirme nuestras hipótesis previas porque así es como construimos nuestro conocimiento. No puedes estar destruyendo todo el rato lo que ya sabías, tiene que haber algún tipo de defensa para mantener ese conocimiento ya establecido". Para Miguel Ángel Vadillo, psicólogo del University College de Londres, el problema de combatir estas creencias erróneas es que no son una idea aislada. "Cuando combates esto", explica a Next, "no solo estás cuestionando una creencia sino una forma de vida. Y en cierto sentido es lógico que una persona sea muy reticente a producir cambios tan grandes. Por ejemplo, para alguien que piensa que los transgénicos son malos, lo que piensa es mucho más que eso, ha ido construyendo mil ideas alrededor y enfrentarse a su creencia es, en el fondo, combatir toda una forma de vida".
"Si crees que existe una conspiración es lógico que no te fíes de los investigadores", asegura Vadillo. "Por otro lado, que estés combatiendo una creencia ya implica que le des cierta credibilidad. Y este estudio con los antivacunas es el ejemplo perfecto. Igual muchos de estos padres nunca habían pensando sobre el tema y al ver que hay discusión empiezan a pensar que existe un riesgo". ¿Qué hacer entonces? ¿Dar más información? Algunos estudios muestran que tener más datos - o más conocimientos técnicos - no te libra del sesgo cognitivo. El equipo de Dan Kahan, de la Universidad de Yale, realizó una prueba con un millar de estadounidenses a los que primero sometió a un test sobre habilidades matemáticas. Cuando les sometió a un problema sobre la capacidad curativa de una crema que requería ciertos conocimientos numéricos, aquellos que tenían mayores habilidades lo resolvieron sin problemas. Ahora bien, cuando les sometieron a todos a un problema similar en el que estaba en juego el tema de la posesión de armas en EEUU, las habilidades matemáticas dejaron de ser un buen predictor para el resultado de la prueba y los individuos se dejaban llevar por la ideología.
La estrategia para impedir que se extienda una creencia irracional y peligrosa pasaría, entonces, por evitar la confrontación directa y tratar de no despertar ese mecanismo de defensa cognitivo que produce el hecho de decirle a alguien que está en un error. Ante el movimiento cada vez mayor en EEUU a favor de consumir leche no pasteurizada (puede terminar siendo un serio problema) Brendan Nyhan propone en The New Yorker que sería más efectivo, en lugar de desatacar sus errores, que las autoridades se centraran en destacar las vidas que ha salvado el sistema. "Cuando alguien no ha oído hablar de un problema, a veces es más seguro intentar no combatir esas creencias para que no lleguen a más gente", añade Miguel Ángel Vadillo, "pero lo que sí está más que demostrado es que  la primera opinión que desarrollas sobre un tema siempre va a ser mucho más fuerte que las restantes". Si la primera vez que nos hablan sobre algo ya nos dan una opinión formada (por ejemplo, las vacunas provocan autismo) se produce lo que se denomina un "sesgo de primacía" que influirá luego en lo que pensemos, aunque creamos que somos objetivos. "Es algo que se aplica incluso en la justicia y en los casos de juicios", explica Vadillo. "No es lo mismo para un jurado escuchar la exposición de que una persona es inocente que empezar contando que es culpable". 
Por otro lado, la tendencia general, sea o no uno un 'conspiranoico', es a opinar sin datos primero y luego buscar los argumentos que refuercen nuestra posición. "Toda la literatura sobre disonancia cognitiva va sobre eso", insiste Vadillo, "no es que tengas una idea por unas razones, sino que das razones para justificar una idea. A lo mejor nunca has pensando mucho sobre las vacunas y cuando empiezas a dar razones puede que no sea más una justificación de tu primera elección". Esto, explica Helena Matute, se denomina 'efecto ancla'. "Cuanto más te pronuncias sobre un problema, más se ancla en tu mente y más difícil es que puedas cambiar de opinión o que puedas asimilar los datos contrarios a lo que estás opinando", asegura. En un trabajo realizado hace unos meses por Labpsico, el equipo que dirige Matute, y publicado en PLOS ONE, trataron de encontrar estrategias para infundir el pensamiento crítico en alumnos adolescentes."En una de las pruebas", recuerda la psicóloga, "poníamos casos de pacientes ficticios y tratamientos alternativos",  revela.  "Pues biennos dimos cuenta de que si les íbamos pidiendo su opinión sobre cada caso anclaban un juicio muy pronto y luego les costaba mucho cambiarlo, mientras que si esperábamos se formaban un criterio con más claridad". Es lo que le pasa a algunos políticos cuando les pregunta un periodista nada más suceder un hecho, bromea Matute, que opinan demasiado pronto y condicionan todo lo que pensarán sobre ese asunto más adelante.
A propósito de llevar razón, esta semana el psicólogo británico Tom Stafford publica en Mind Hacks un artículo sobre “la mejor manera de ganar una discusión” y recuerda otro aspecto de nuestra psique descubierto hace una década por científicos de la universidad de Yale. La mayoría de las veces, por pura familiaridad, creemos conocer cómo funcionan algunos problemas complejos de la sociedad cuando en realidad no tenemos ni idea de cuáles son las causas ni sus mecanismos. Se trata de una especie de “ilusión de la explicación profunda”. Conociendo este sesgo, los mismos científicos realizaron otro experimentoen el que pedían a un grupo de estudiantes que defendiera su tesis con argumentos y a otro que detallara paso a paso la solución que proponía para el problema. Y descubrieron que entre estos últimos, que descubrían la vulnerabilidad de su posición, era más fácil el cambio de postura. En otras palabras, para demostrarle a alguien que no tiene razón, no hay nada como dejar que se explique.

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

Gonçal, un cafè sisplau

Darwin i el seu descobriment de la teoria de l'evolució.