Toma de Decisiones Bajo Incertidumbre: Heurísticas y Sesgos Cognitivos en Emergencias
Heurísticas y sesgos cognitivos de Kahneman-Tversky aplicados a emergencias, modelo de decisiones naturalista de Klein y estrategias para mejorar la toma de decisiones bajo presión.
Toma de Decisiones Bajo Incertidumbre: Heurísticas y Sesgos Cognitivos en Emergencias
En una emergencia real, las decisiones se toman con información incompleta, presión temporal y consecuencias graves. Daniel Kahneman y Amos Tversky revolucionaron la comprensión de la toma de decisiones humana con su Teoría de las Perspectivas (Prospect Theory, 1979), por la que Kahneman recibió el Nobel de Economía en 2002. Su investigación demostró que los seres humanos no somos decisores racionales: utilizamos atajos mentales (heurísticas) que, aunque útiles en la vida cotidiana, producen errores sistemáticos y predecibles (sesgos) cuando las condiciones son complejas o estresantes. Gary Klein, por su parte, desarrolló el modelo de Toma de Decisiones Naturalista (NDM) estudiando cómo expertos como bomberos y militares toman decisiones reales en el campo, revelando que el proceso es radicalmente diferente al modelo racional clásico. Conocer estas heurísticas y sesgos permite identificar cuándo nuestro cerebro nos está engañando y aplicar correctivos.
Heurísticas principales y sus trampas en emergencias
Kahneman y Tversky identificaron tres heurísticas principales que el cerebro usa como atajos. En la vida cotidiana funcionan razonablemente bien, pero en emergencias pueden producir errores fatales:
- Heurística de disponibilidad: El cerebro estima la probabilidad de un evento según la facilidad con que recuerda ejemplos similares. Tras ver noticias sobre terremotos, sobreestimamos su probabilidad. Tras una experiencia personal de inundación, sobrevaloramos ese riesgo e infravaloramos otros. En emergencias, esto lleva a prepararse para la última crisis (sesgo de recencia) e ignorar amenazas menos mediáticas pero igual de probables. Tversky y Kahneman lo documentaron en «Judgment under Uncertainty: Heuristics and Biases» (Science, 1974).
- Heurística de representatividad: Juzgamos la probabilidad de algo según cuánto se parece a nuestro estereotipo. Si una tormenta no «parece» peligrosa (el cielo no está negro, no hay viento fuerte), subestimamos su riesgo. Si alguien no «parece» herido (no sangra visiblemente), asumimos que está bien. Este sesgo explica por qué muchas personas no evacúan ante alertas: la situación no se ajusta a su imagen mental de «emergencia real».
- Heurística de anclaje: La primera información recibida ejerce una influencia desproporcionada en las decisiones posteriores. Si la primera estimación de un río crecido es «subirá medio metro más», todas las decisiones posteriores se anclan a esa cifra aunque nueva información sugiera que podría subir tres metros. En negociaciones de crisis y evaluaciones de daño, el anclaje inicial puede ser peligrosamente engañoso.
Sesgos cognitivos críticos en situaciones de supervivencia
Además de las heurísticas principales, múltiples sesgos documentados afectan las decisiones en emergencias:
| Sesgo | Descripción | Ejemplo en emergencia | Correctivo |
|---|---|---|---|
| Normalidad (normalcy bias) | Tendencia a creer que las cosas seguirán funcionando como siempre. Afecta al 70% de las personas en desastres según Amanda Ripley | Ignorar alarmas de evacuación pensando que es un simulacro o que «no será para tanto» | Predefinir umbrales de acción: si suena la alarma, se actúa. Sin deliberar |
| Confirmación | Buscar y valorar solo información que confirma lo que ya creemos | Buscar señales de que la tormenta amaina e ignorar datos de que empeora | Asignar a alguien el rol de «abogado del diablo» que busque información contradictoria |
| Coste hundido (sunk cost) | Persistir en un curso de acción porque ya se ha invertido en él, aunque las circunstancias hayan cambiado | Negarse a abandonar un refugio que costó construir aunque ya no sea seguro | Evaluar cada decisión desde cero: «Si no tuviéramos este refugio, ¿lo construiríamos aquí?» |
| Efecto manada (bandwagon) | Hacer lo que hace la mayoría aunque no tenga sentido | Seguir a un grupo que evacúa en la dirección equivocada porque «si todos van ahí será por algo» | Verificar información independientemente antes de seguir al grupo |
| Optimismo (optimism bias) | Creer que las cosas malas les pasan a otros, no a nosotros. Tali Sharot documentó su base neuronal en 2011 | No prepararse porque «a mí no me va a pasar» | Sustituir la pregunta «¿Me pasará?» por «¿Qué haré si pasa?» |
El modelo de decisiones naturalista de Gary Klein
Gary Klein estudió durante décadas cómo toman decisiones los profesionales en emergencias reales (bomberos, pilotos, médicos de urgencias). Su hallazgo principal, publicado en «Sources of Power» (1998), desafió el modelo racional clásico: los expertos no comparan opciones sistemáticamente; usan el reconocimiento de patrones.
- Modelo RPD (Recognition-Primed Decision): Klein descubrió que los comandantes de bomberos experimentados reconocen la situación como similar a una experiencia previa y generan una única solución que simulan mentalmente. Si funciona en la simulación mental, la ejecutan. Si no, la modifican. No comparan múltiples opciones: generan y validan una sola. Este proceso es extremadamente rápido (segundos) y funciona bien cuando hay experiencia previa.
- Implicación para no expertos: El modelo RPD explica por qué la preparación práctica (simulacros, entrenamiento, ensayo mental) es tan valiosa: crea el banco de experiencias del que depende el reconocimiento de patrones. Sin experiencia previa (real o simulada), el cerebro no tiene patrones que reconocer y la toma de decisiones bajo presión se degrada dramáticamente.
- La premortem de Klein: Klein también desarrolló la técnica del «premortem»: antes de ejecutar un plan, el equipo imagina que ha pasado un tiempo y el plan ha fracasado. Cada miembro escribe por qué cree que falló. Esta técnica supera el sesgo de optimismo y de confirmación porque legitima la crítica y obliga a pensar en fallos. Estudios muestran que incrementa la identificación de riesgos en un 30%.
Herramientas prácticas para decisiones bajo presión
Combinando la investigación de Kahneman-Tversky con el modelo naturalista de Klein, las siguientes herramientas mejoran la toma de decisiones en emergencias:
- Regla STOP (Stop, Think, Observe, Plan): Usada en entrenamiento de supervivencia militar y civil: parar físicamente, pensar en la situación global, observar el entorno con atención deliberada, y planificar el siguiente paso. El simple acto de parar interrumpe las respuestas impulsivas del Sistema 1 y reactiva parcialmente el Sistema 2.
- Decisiones reversibles vs. irreversibles: Jeff Bezos distingue entre decisiones «de puerta de un sentido» (irreversibles) y «de puerta de dos sentidos» (reversibles). En emergencias, identificar si una decisión es reversible permite actuar más rápido en las reversibles y dedicar más análisis a las irreversibles. Cruzar un río crecido es irreversible; acampar en un punto temporal es reversible.
- La regla del 70%: Atribuida a Colin Powell: si tienes entre el 40% y el 70% de la información posible, decide. Con menos del 40%, la decisión es una apuesta. Con más del 70%, probablemente estés perdiendo tiempo valioso. En emergencias, esperar a tener información perfecta es un lujo que rara vez existe; la parálisis por análisis puede ser más peligrosa que una decisión imperfecta.
- Consulta rápida con el grupo: La investigación en «sabiduría de multitudes» (Surowiecki, 2004) muestra que las estimaciones grupales son más precisas que las individuales si se recogen de forma independiente. En un grupo de supervivencia, pedir que cada persona diga su estimación antes de deliberar (para evitar el anclaje del primero que habla) produce mejores decisiones colectivas.