La disracionalitat i els prejudicis cognitius.
¿Cómo
puede alguien tan inteligente hacer algo tan tonto? Todos nos hemos
hecho esta pregunta en alguna ocasión al ver a algún amigo o pariente,
por lo demás perfectamente inteligente, hacer alguna estupidez.
La
gente compra caro y vende barato. Creen en el horóscopo. Asumen que
“eso”, sea lo que sea, nunca les puede ocurrir a ellos. Lo apuestan todo
al negro por que ahora “toca” negro. Piensan que un número concreto de
la lotería es trascendente, porque lo relacionan con algo importante o
conocido para ellos y que, por esto mismo, es más probable que toque. Se
toman una ración extra de tarta pero piden sacarina para el café.
Hablan por teléfono o encienden un cigarrillo mientras conducen. Después
de perder un buen montón de dinero, siguen metiendo más en lo mismo
porque ya llevan mucho “invertido”. Asumen que una burbuja financiera o
inmobiliaria no estallará nunca. Vuelve a votar al mismo incompetente
que está llevando al país a la ruina. Etcétera.
La
razón por la que la gente inteligente hace algunas veces cosas
estúpidas es que inteligencia y racionalidad son cosas diferentes. La
incapacidad para hacer cosas racionales a pesar de ser inteligente la
llamaremos disracionalidad.
Desde
que Charles Spearman propusiera allá por el año 1904 la existencia de
un “factor general de inteligencia”, g, como base de la función
cognitiva, la definición y medición de la inteligencia no ha podido ser
algo más controvertido. Por ejemplo, hay quien argumenta que la
inteligencia está constituida de muchas capacidades cognitivas
diferentes. Hay otros que quieren ampliar la definición de inteligencia
para incluir las inteligencias “emocional” y “social”.
Podemos
considerar, para lo que nos interesa ahora, la inteligencia medida por
los tests de cociente intelectual como un constructo útil. No nos es
necesario siquiera entrar a discutirlo ni a matizarlo. La idea
importante es que la inteligencia por sí misma no garantiza un
comportamiento racional. En otras palabras puedes ser inteligente sin
ser racional. Y puedes ser un pensador racional sin ser especialmente
inteligente.
Empecemos
por dejar estas ideas claras experimentalmente. Intenta resolver este
problema antes de seguir leyendo: “Antonio está mirando a Beatriz, pero
Beatriz está mirando a Carlos. Antonio está casado, pero Carlos no.
¿Está una persona casada mirando a una persona soltera?”. Las respuestas
posibles son: “sí”, “no” y “no puede ser determinado”.
¿Ya tienes tu respuesta? Pues sigue leyendo.
Más
del 80 por ciento de las personas contestan incorrectamente. Si
llegaste a la conclusión de que la respuesta no puede determinarse, eres
una de ellas. La respuesta correcta es, “sí”, una persona casada está
mirando a una soltera.
La
mayoría de nosotros creemos que necesitamos saber si Beatriz está
casada para poder responder a la pregunta. Pero considera todas las
posibilidades. Si Beatriz está soltera, entonces una persona casada
(Antonio) está mirando a una soltera (Beatriz). Si Beatriz está casada,
entonces una persona casada (Beatriz) está mirando a una soltera
(Carlos). En cualquier caso la respuesta es “sí”.
La
mayoría de la gente tiene inteligencia suficiente para llegar a esta
conclusión, basta añadir algo como “piensa lógicamente” o “considera
todas las posibilidades” para que lo hagan. Pero si no se indica nada,
como ahora, no recurrirán a todas sus capacidades mentales para
resolverlo (más sobre esto más abajo).
Esta
es una de las mayores fuentes de disracionalidad. Todos somos avaros
cognitivos que intentamos evitar pensar demasiado. Esto tiene sentido
desde un punto evolutivo. Pensar requiere tiempo, es intensivo en
recursos y, algunas veces, contraproducente. Si el problema a resolver
es evitar al ataque de un depredador no te puedes permitir perder una
fracción de segundo en decidir si saltas al río o trepas a un árbol. Por
eso hemos desarrollado una serie de reglas empíricas (heurística) y
prejuicios para limitar la cantidad de capacidad mental que empleamos en
un problema dado. Estas técnicas proveen respuestas aproximadas y ya
preparadas que son correctas muchas veces, pero no siempre.
Por
ejemplo, en un experimento, un investigador ofreció a los sujetos un
dólar si, a ciegas, sacaban una gominola roja de un recipiente que
contenía una mayoría de gominolas blancas. Los voluntarios podían
escoger entre dos recipientes: uno con nueve gominolas blancas y una
roja y el otro con 92 blancas y ocho rojas. Entre el treinta y el
cuarenta por ciento de los sujetos que realizaron el ensayo escogió el
recipiente mayor, a pesar de que la mayoría comprendía que una
probabilidad del ocho por ciento de ganar era peor que una del diez por
ciento. El atractivo visual de ver más gominolas rojas se sobrepuso a su
comprensión de la probabilidad.
¿Tú
que harías en una situación similar? Hagamos un experimento. Considera
el siguiente problema: “Se detecta el brote de una enfermedad que puede
matar a 600 personas si no se hace nada. Hay dos tratamientos posibles.
El Opción-A salvará a 200 personas. El Opción-B te da un tercio de
probabilidades de que se puedan salvar las 600, y dos tercios de que no
se salve ninguna. ¿Qué tratamiento eliges?”
Bien, ¿has elegido ya? Continuamos.
La
mayoría de las personas que hacen este ejercicio elige la opción A. Es
mejor garantizar que 200 personas se salven que arriesgarse a que todo
el mundo muera. Pero si formulamos la pregunta de esta manera “La
Opción-A significa que morirán 400 personas; la Opción-B te da un tercio
de probabilidades de que no muera nadie y dos tercios de que mueran
600”, la mayoría elige la B, es decir, se arriesgan a matar a todos por
una probabilidad menor de salvar a todos.
El
problema, desde un punto de vista racional, es que las dos situaciones
son idénticas. Lo único que varía es que la pregunta se formula de forma
diferente para enfatizar que en la opción A morirán con seguridad 400
personas, en vez de que se salvarán 200. Esto se conoce como efecto
perspectiva y su uso en publicidad está muy extendido (su descripción
cuantitativa le valió un premio Nobel a Daniel Kahneman en 2002): la
forma en que se presenta una pregunta afecta de forma dramática a la
respuesta que se obtiene y puede llevar incluso a respuestas
contradictorias.
Otro
efecto es el de obstinación. En un experimento los investigadores
hacían girar una ruleta trucada que sólo se paraba en el 10 o en el 65.
Cuando la rueda se paraba los investigadores pedían al voluntario una
estimación del porcentaje de países africanos en la Naciones Unidas. Los
que veían el 65 daban un número mayor que aquellos que veían el 10. El
número influía en sus respuestas (las anclaba, de ahí el nombre del
efecto en inglés “anchoring”) a pesar de que pensaran que el número era
completamente arbitrario y sin significado.
La lista de reglas empíricas y prejuicios cognitivos es
muy extensa: buscamos pruebas que confirmen nuestras creencias y
descartamos las que no las favorecen, evaluamos las situaciones desde
nuestro punto de vista sin considerar la otra parte, nos influye más una
anécdota llamativa que las estadísticas, creemos que sabemos más de lo
que realmente sabemos, creemos que estamos por encima de la media,
estamos convencidos que a nosotros no nos afectan los prejuicios como a
los demás, etc., etc.
Finalmente
existe otra fuente de disracionalidad, lo que llamaremos “huecos en el
equipamiento mental”. Por equipamiento mental entendemos el conjunto de
las reglas cognitivas, estrategias y sistemas de creencias aprendidos.
Incluye nuestra comprensión de la probabilidad y la estadística así como
nuestra disposición a considerar hipótesis alternativas cuando tratamos
de resolver un problema. El equipamiento mental forma parte de lo que
se suele llamar inteligencia cristalizada. Sin embargo, algunas personas
muy educadas y muy inteligentes nunca adquieren un equipamiento mental
adecuado. Otra posibilidad es que el equipamiento mental esté
“contaminado”, por supersticiones por ejemplo, lo que lleva a decisiones
irracionales.
La
disracionalidad tiene importantes consecuencias para el día a día.
Puede afectar a las decisiones financieras que tomes, a las políticas
gubernamentales que apoyes., a los políticos que elijas y, en general, a
tu capacidad para construir la vida que quieres. Por ejemplo, los
ludópatas obtienen resultados más bajos que la media en varios tests de
pensamiento racional. Toman decisiones más impulsivas, es menos probable
que consideren las consecuencias futuras de sus acciones y es más
probable que crean en números afortunados y desafortunados. También
obtienen malos resultados en la comprensión de la probabilidad y la
estadística. Así, es menos probable que entiendan que cuando se arroja
una moneda al aire, cinco caras seguidas no significa que en la
siguiente tirada el que salga cruz sea más probable. Su disracionalidad
no les hace sólo malos jugadores, sino jugadores con problemas: personas
que continúan jugando a pesar de hacerse daño a ellos mismos y a su
familia.
Cuando
se comparan los resultados que obtiene una misma persona en los tests
de cociente intelectual habituales con los que miden el nivel de
racionalidad se encuentra que no tienen por qué estar correlacionados
entre sí. En algunas tareas existe una disociación casi completa entre
pensamiento racional e inteligencia. Así, por ejemplo, tú puedes pensar
más racionalmente que alguien mucho más inteligente que tú. De la misma
forma, una persona con disracionalidad es casi tan probable que tenga
una inteligencia por encima de la media como que la tenga por debajo.
Para
comprender el origen de las diferencias en la racionalidad de las
personas pensamos que la teoría de Keith Stanovich, de la Universidad de
Toronto (Canadá), y padre del término disracionalidad (dysrationalia),
es muy útil y simple. Stanovich sugiere que pensemos en la mente como
constituida por tres partes. La primera es la “mente autónoma” que es la
que usa la mayor parte de los atajos (prejuicios) cognitivos
problemáticos. Stanovich la llama “procesamiento del tipo 1”. Funciona
rápida y automáticamente y sin control consciente.
La
segunda parte es la “mente algorítmica”. Es la que se embarca en el
“procesamiento de tipo 2”, el pensamiento lento, trabajoso y lógico que
miden los tests de inteligencia.
La
tercera parte es la “mente reflexiva”. Decide cuándo basta con la mente
autónoma y cuándo echar mano de la maquinaria pesada de la algorítmica.
Es la mente reflexiva la que determinaría hasta qué punto eres
racional. Tu mente algorítmica puede estar lista para entrar en combate,
pero será de poca ayuda si nunca se la llama.
Cuándo
y cómo la mente reflexiva entra en acción está relacionado con una
serie de rasgos de personalidad, incluyendo si eres dogmático, flexible,
de mente abierta, capaz de tolerar la ambigüedad o concienzudo.
La
buena noticia es que el pensamiento racional puede ser aprendido. Una
serie de estudios muestra que una buena manera de mejorar el pensamiento
crítico y racional es pensar y analizar lo opuesto a tu primera
conclusión. Una vez que esta práctica se convierte en hábito te ayuda,
no sólo a considerar hipótesis alternativas, sino a evitar trampas como
las que tienden los prejuicios cognitivos.
¿Quieres tener una indicación de cómo eres de racional? Aquí tienes un microtest.
Referencia:
Este texto se basa en una idea original de Kurt Kleiner
César Tomé López, Por qué la gente cree/dice/hace cosas irracionales, Experientia docet, 29/11/2010
Comentaris