di Davide Vavassori
Negli ultimi anni ricerche in ambito neurologico e della psicologia cognitiva hanno fatto emergere in che modo i policy maker prendono le decisioni giuste e, soprattutto, sbagliate.

Perché Kim Jong-Un prosegue una politica atomica aggressiva, dispendiosa e insensata? Perché Napoleone continuò la conquista della Russia in inverno, nonostante tutto indicasse che non fosse una buona idea? Perché Hitler si fossilizzò nell’assedio a Stalingrado anziché puntare direttamente alla presa di Mosca come i suoi luogotenenti consigliavano?

Quando capita di osservare scelte controverse e apparentemente incomprensibili di leader e governi si tende a cercare di spiegare ogni scelta con un processo logico-razionale. Talvolta anche a costo di fare forzature cognitive evidentemente fuori dalle intenzioni dell’attore osservato oppure, specie ultimamente, a costo di credere a qualche macchinazione occulta (il petrolio! le multinazionali!). La mania di voler spiegare tutto in un mondo in cui tutto dovrebbe essere spiegabile è naturale, e applicare quest’ansia didascalica alle scelte delle nostre istituzioni è una scelta più che giusta. Ma non del tutto onesta. Infatti, come ognuno di noi riconosce a se stesso momenti di irrazionalità dettati dall’istinto più che dalla ragione, così succede per gli attori politici.

Le scelte politiche vengono da sempre analizzate alla luce del “modello dell’attore razionale” che parte da tre assunti:

  1. il decisore razionale ha accesso a informazioni perfette;
  2. è aperto a modificare la sua posizione al variare delle informazioni ricevute
  3. è in grado di fare stime attendibili in merito a quale sarà il modo migliore per perseguire il risultato da lui desiderato.

In questa prospettiva, l’uomo – inteso come macchina decisionale – è capace di usare la logica in modo coerente, massimizzando l’uso delle informazioni, soprattutto quando queste sono complesse e mutevoli.

A prendere a picconate la granitica autoreferenzialità del modello razionale, negli ultimi anni di studi e scoperte scientifiche, ci ha pensato prima la psicologia cognitiva e poi la neuroscienza.

Partiamo dalla qualità e disponibilità delle informazioni: l’analisi economica ha da anni stabilito che uno dei vizi principali dei modelli teorici è la mancanza della circolazione perfetta delle informazioni. Se ciò è oramai acquisito come consolidato nell’economia, perché nell’analisi politica questo concetto fa ancora fatica a assodarsi? Un esempio: anche postulando come obiettiva la valutazione di G.W. Bush sull’intervento militare in Iraq del 2003, gli venne riferito da fonti dell’intelligence che Saddam Hussein stava cercando di acquistare concentrato di uranio dal Niger e stava utilizzando laboratori mobili per la produzione di armi batteriologiche. Un’informazione sbagliata che avrebbe tratto in errore anche il più razionale dei decisori. Indipendentemente dalla fallibilità delle informazioni, il modello razionale resta inaffidabile in virtù della natura stessa dell’uomo.

Il famoso discorso in cui Colin Powell - Segretario di Stato di epoca Bush - ha giustificato all'Onu l'invasione dell'Iraq, mostrando una finta fialetta di antrace. Le informazioni che hanno portato a questa decisione si sono poi rivelate false.

Il famoso discorso in cui Colin Powell – Segretario di Stato di epoca Bush – ha giustificato all’Onu l’invasione dell’Iraq, mostrando una finta fialetta di antrace. Le informazioni che hanno portato a questa decisione si sono poi rivelate false.

Negli anni ’70 la psicologia cognitiva dà vita a una rivoluzione totale nella visione dei meccanismi mentali. Analizzando alcune regolarità psicologiche come condizioni di stress elevato, alto grado di incertezza, ruolo del leader, H. Simon (il primo psicologo nella storia a vincere un premio Nobel per l’economia nel 1978) formula la teoria della “razionalità limitata”, in cui denuncia che l’analisi costi-benefici non è attendibile sul processo decisionale in politica in quanto la soddisfazione di chi ha il potere di scegliere non coincide sempre con l’ottimizzazione dei risultati. L’uomo predilige inoltre situazioni lineari rispetto a casi complessi:

“People who make important choices about foreign policy need to be logical, discriminating while open to new evidence, and ‘coherent’ and ‘consistent’ in responding to logical arguments. Rational decision makers are those who are open to arguments and evidence, free of serious blinkers as they weigh the evidence and think about the likely consequences of options”

L’uomo ha dunque l’istinto di semplificare, attraverso similitudini spesso forzate, quello che è invece complesso. Quando nel 1991 Bush senior chiamò Saddam Hussein “un nuovo Hitler”, fece scarsa attenzione alle differenze evidenti tra l’Iraq del 1990 e la Germania del 1938; attraverso questa analogia semplificativa al limite della stupidità (Leo Strauss coniò per queste fallacie logiche il termine “reductio ad hitlerum”), rese chiaro a tutti come fosse necessario rispondere all’invasione irachena del Kuwait dimostrando questa verità non attraverso un processo razionale ma tramite un’analogia storica fuori da ogni senso.

Un ulteriore difetto cognitivo umano consiste nel preferire ragionamenti solidi e immutabili a realtà flessibili o instabili. E quando l’evidenza dell’errore logico aumenta, cresce parimenti la strenua difesa delle posizioni del pensatore. Ad esempio, anche dopo l’evidente fallimento dell’invasione in Iraq e del successivo processo di pace, i politologi che avevano sostenuto l’invasione – o almeno gran parte di loro – non ritrattarono, ma scelsero due strade: alcuni se la presero con gli iracheni, colpevoli di non essersi ribellati a Saddam durante l’intervento americano, altri ammisero di aver sbagliato, non nel postulare l’invasione, ma nel sottovalutare la pochezza dell’amministrazione Bush. La degenerazione del conflitto in Vietnam ci fornisce un altro esempio, trattato approfonditamente in questo lavoro pubblicato dalla Princeton University: quando i politici devono rivedere i propri errori sono i meno aperti ad ammettere, e dunque a ritrattare, le proprie opinioni. In aggiunta, la presenza di un nemico contro cui si è stati abituati a dubitare per anni, aggrava il meccanismo irrazionale.

Nel 1988 la quasi totalità degli analisti americani (convinti che il bipolarismo sarebbe andato avanti almeno altri vent’anni), non vedeva in Michail Gorbachev l’uomo che avrebbe portato a termine la Guerra Fredda, ma solo un presidente particolarmente scaltro nell’imbambolare gli statunitensi con mosse distensive mentre l’Unione Sovietica pensava a rafforzarsi. Il conflitto israelo-palestinese porta a sua volta un’evidenza storica molto chiara in merito all’influenza della percezione del nemico sull’effettiva razionalità con cui si producono scelte di politica estera. Il tempo fossilizza un’idea che diventa via via immutabile nei confronti di un avversario squalificato come “nemico” indipendentemente da come agisca e questo crea pregiudizi che impediscono a Israele e Palestina di analizzarsi reciprocamente con razionalità.

Antonio Damasio, neurologo e psicologo portoghese che dagli anni ’80 ha dedicato la sua vita allo studio della psicologia cognitiva e comportamentale nelle università dell’Iowa e della California, ha formulato la teoria del “marcatore somatico”: una sorta di memoria emotiva che, in base a ricordi emotivi del passato, influenza le decisioni ancora prima che analisi razionali ne influenzino la risoluzione finale. Le decisioni politiche non sono scevre di queste influenze: i preconcetti sono difficili da cambiare.

I decisori politici, facendo dunque uso di “scorciatoie cognitive” che riducono ragionamenti complessi a semplici assiomi, faticano a valutare le probabilità che un evento si verifichi o meno. La politica di appeasement che condusse la Gran Bretagna nei confronti della Germania negli anni ’30 ne è un altro esempio perfetto: l’establishment britannico prestò pochissima attenzione all’escalation della minaccia della forza tedesca, in quanto ritenuta poco credibile nell’ ottica della passata esperienza di innumerevoli minacce simili a quelle portate da Hitler e poi cadute nel nulla.

Un ultimo fattore studiato dalla psicologia cognitiva è l’avversione alle perdite. Daniel Kahneman, secondo psicologo a vincere il Nobel per l’economia dopo H. Simon grazie ai suoi studi sull’applicazione degli studi psicologici all’economia in situazioni di incertezza, afferma che al momento di prendere una decisione in politica estera la paura di una piccola perdita è infinitamente maggiore al desiderio di un grande guadagno, e questo influisce gravemente sulla razionalità dell’attore in gioco. Questo si traduce non solo in scelte fortemente conservative ma anche in rappresaglie interminabili per riottenere quello che si è perduto. Nel 1967 il presidente egiziano Sadat non si fece una ragione della perdita del Sinai e questo lo portò a fregarsene dell’evidente supremazia militare israeliana e a lanciare un attacco a sorpresa nel 1973 che portò a un aggravamento della situazione geopolitica peggiore, ampiamente evitabile alla luce di una razionale analisi preventiva dei costi-benefici.

AVVERSIONE ALLE PERDITE (Kahneman Tversky): Curva ad S: convessa nella perdite e concava nei guadagni.

Una prova dell’inconsistenza del modello razionale viene data dall’Ultimatum Game, un esperimento sociale costruito sulla teoria dei giochi in cui vengono considerati due giocatori: al primo viene data una somma di denaro e il compito di decidere in che proporzioni spartirla con il secondo. Quest’ultimo, una volta decisa dal primo la parte assegnatagli, ha il potere di accettare o di rifiutare tutto, in questo caso facendo sì che nessuno dei due prenda nulla. Da un punto di vista strettamente razionale, il secondo attore dovrebbe accettare qualunque proposta fatta dal primo, visto che per massimizzare il risultato tutto è accettabile tranne che ottenere zero. Tuttavia è stato provato che nella maggior parte dei casi studio se il primo offre al secondo una percentuale uguale o inferiore al 20 percento della somma, questi rifiuta, preferendo non ricevere nulla. Oltre ai meccanismi di ottimizzazione operano infatti fattori come il senso di dignità, l’umiliazione e l’ingiustizia percepite, che spingono il secondo a rifiutare una somma di denaro regalata. Se l’offerta è troppo egoista il secondo punisce il primo a costo di rimetterci lui stesso.

Ultimatum game / credits: wol.iza.org

Anche il mondo delle neuroscienze ha dimostrato che la razionalità umana è drammaticamente limitata se si analizza il funzionamento neurologico di un cervello. Il modello di Ledoux ha dimostrato che la zona cerebrale a cui sono connesse le emozioni (l’amigdala) ha un tempo di reazione molto più rapido rispetto al centro razionale del nostro cervello (la neocorteccia); ciò crea una spinta emotiva prevalente rispetto ai processi razionali. Per dirla con le parole del fisico e cosmologo Overbye ,

“la mente cosciente è come una scimmia che prova a cavalcare una tigre di decisioni inconsce e azioni in progresso, mentre proietta immagini di sé stessa immaginandosi in perfetto controllo (…) Il cervello cosciente può solo cercare di afferrare ciò che il cervello incosciente sta già facendo”

Nel 2005 alcuni scienziati dell’Università di Zurigo hanno provato a “disattivare” l’amigdala – zona cardine delle emozioni negli scambi sinaptici celebrali – attraverso l’inalazione di ossitocina, un ormone conosciuto per generare fiducia nel prossimo. I risultati ottenuti sono stati strabilianti: è avvenuta una produzione artificiale di empatia, e il nucleo dorsale caudato nel cervello, che genera diffidenza nel prossimo, è stato disattivato insieme all’amigdala.

Scena dal film "Fail Safe: a prova d'errore". Il Presidente americano è al telefono con il suo omologo sovietico, in una critica conversazione sulla deterrenza atomica / regia di Sidney Lumet (1964), produzione Max E. Youngstein

Scena dal film “Fail Safe: a prova d’errore”. Il Presidente americano è al telefono con il suo omologo sovietico per parlare di una critica emergenza nucleare / regia di Sidney Lumet (1964), produzione Max E. Youngstein

Irving Janis, psicologo americano celebre per i suoi studi sugli errori connessi a decisioni collettive, studiando i piccoli gruppi decisionali (ndr. quasi la totalità dei gruppi che producono decisioni di politica estera, che sia il National Security Council o l’unità di crisi della Farnesina, sono nei fatti piccoli gruppi) e le loro dinamiche di conformismo e di dissenso, ha formulato la teoria del Groupthink. Questa teoria studia come la distribuzione del potere all’interno del gruppo, il ruolo di ogni singolo individuo nei processi decisionali, la diversità dei leader con potere primario o meno, danno vita a disfunzioni, non solo quando – come accade in situazioni di crisi internazionali – lo stress risulti elevato, ma anche in situazione più tranquille. La teoria del Groupthink considera diverse condizioni in cui individui singolarmente razionali se messi a contatto tra loro per elaborare una strategia comune possono dare vita a alterazioni della realtà. In situazioni di elevata paura interna, causata da un leader fortemente carismatico a guida del piccolo gruppo (come possono esserlo stati Stalin e Saddam Hussein), la volontà dei singoli partecipanti a esprimere dubbi o critiche alle opinioni può essere azzerata dalla consapevolezza delle conseguenze del proprio dissenso o da una forza inconscia che spinge l’individuo a non discutere le indicazioni del leader e assumerle come vere.

È possibile per gli attori decisionali difendersi dalle trappole della psicologia cognitiva e dai processi mentali descritti dalle neuroscienze, falsati dalla prevalenza delle emozioni sulla razionalità?

La Crisi dei missili a Cuba nel 1962 dimostra di sì: in questo caso un leader carismatico è riuscito ad evitare lo scatenarsi di dinamiche di ostracismo mantenendo una lucida razionalità all’interno del suo piccolo gruppo decisionale in un momento di estrema emotività. Grazie alla creazione di sottogruppi di discussione, di una figura che fungesse da “avvocato del diavolo” (una figura creata ad hoc al fine di elaborare continuamente un’opinione contraria a quella degli altri, in modo tale da mettere in evidenza eventuali lacune logiche di ogni ragionamento), il presidente Kennedy stette ben attento a non esprimere i suoi pareri in modo definitivo e a lasciar parlare più i suoi collaboratori. Questo comportò una partecipazione allargata di persone preparate che annullarono reciprocamente gli istinti emotivi che avrebbero portato loro a probabili – se affrontate singolarmente – reazioni di paura rispetto alla possibilità di un attacco nucleare.

L’impegno a evitare trappole cognitive naturali, date come ineliminabili sia del nostro sistema neurologico che dalle dinamiche sociali di potere, deve essere costante. Se è vero che la conoscenza è il primo passo verso la comprensione, i gruppi decisionali devono prendere consapevolezza di queste dinamiche senza paura in modo da aumentare la qualità delle scelte in tempo di pace e diminuire i rischi di crisi potenzialmente mortali in tempo di guerra.

Redazione
Leave a replyComments (0)

Lascia un commento