Il costo di riconoscere i propri errori

È una delle cose più difficili che ci siano e stiamo peggiorando nel farlo, nonostante l'enorme quantità di informazioni che abbiamo a disposizione per ammettere uno sbaglio

È raro che a qualcuno piaccia sentirsi dire di avere sbagliato e di avere torto su qualcosa. Riconoscere i propri errori è difficile, spesso richiede tempo e non sempre c’è la consapevolezza che nel farlo si possano imparare lezioni importanti, su se stessi e la vita in generale. Errare è umano, dice la parte più indulgente di un famoso proverbio, eppure secondo un recente articolo dell’Economist negli ultimi tempi la nostra capacità di ammettere di avere sbagliato è peggiorata, perché si sono moltiplicate le possibilità di avere rinforzi positivi sui nostri comportamenti e le nostre convinzioni, anche se sono pieni di errori.

In linea di massima, tendiamo a escludere le informazioni che sono in conflitto e contraddicono il nostro modo di vedere il mondo. L’Economist cita uno studio realizzato da Roland Bénabou di Princeton (Stati Uniti) e dal premio Nobel Jean Tirole della Toulouse School of Economics (Francia), dedicato proprio alla capacità di ciascuno di noi di imparare dagli errori commessi. Le convinzioni possono essere paragonate ai beni economici: ogni individuo investe del tempo e delle risorse per costruirle e di conseguenza attribuisce loro un valore. Alcune convinzioni funzionano come i beni di consumo: più se ne accumulano più ci si costruisce una propria identità, mentre altre contribuiscono a determinare il modo in cui ci si comporta.

Nel momento in cui veniamo in contatto con nuove informazioni, c’è la possibilità che queste mettano in discussione le convinzioni che già abbiamo, e che come abbiamo visto ci sono costate sforzi e risorse per essere costruite. Siamo quindi meno inclini ad accogliere le nuove informazioni – come punti di vista diversi – proprio perché queste scompaginano le nostre credenze. Bénabou classifica questi “ragionamenti automotivati” in tre categorie:

  • ignoranza strategica – quando evitiamo di prendere in considerazione le informazioni che collidono con le nostre convinzioni;
  • negazione della realtà – le informazioni che ci creano problemi vengono respinte con ragionamenti astrusi, è il caso per esempio delle teorie del complotto;
  • auto-segnalazione – quando ci creiamo da soli gli strumenti per interpretare i fatti nel modo che ci fa più comodo (mi dicono che sono malato, allora decido di andare a correre ogni giorno per provare a me stesso che non lo sono, per esempio).

I ragionamenti automotivati sono ricorrenti soprattutto tra le persone con un buon grado d’istruzione, e naturalmente non in tutti i casi portano a qualcosa di male (sostenere senza fatti concreti che la propria squadra di calcio sia migliore delle altre è nell’ordine delle cose, e non crea grandi danni); in altre circostanze possono essere un problema, per esempio se si basano su convinzioni errate ampiamente diffuse e condivise da molte persone. Internet ha reso accessibile un’enorme quantità di informazioni e, a saperli cercare, si possono trovare dati affidabili che smontano qualsiasi convinzione errata, comprese quelle pericolose (per tutti) che negano il riscaldamento globale. Eppure, l’alta disponibilità di informazioni di questo tipo non è sufficiente per contrastare i ragionamenti automotivati.

L’Economist cita il caso di un recente sondaggio sul cambiamento climatico, condotto negli Stati Uniti tra i sostenitori dei Democratici e quelli dei Repubblicani. Tra i Democratici, le persone meglio informate sono più preoccupate sugli effetti del riscaldamento globale rispetto a quelle che si sono informate meno, o hanno meno strumenti per capire gli aspetti scientifici del problema. Tra i Repubblicani invece, il livello di conoscenza scientifica e sui fatti del cambiamento climatico non ha alcun effetto sulle convinzioni, che continuano a essere di marcato scetticismo. Per quanto un “consumatore” sia informato e sofisticato, tende comunque sempre ad andare a cercare ciò che gli piace trovare.

Bénabou dice nel suo studio che il pensiero di gruppo – cioè la tendenza di un gruppo sociale a cercare di minimizzare da subito i conflitti per raggiungere un consenso ed evitare di rovinare la sua coesione – influenza di più le scelte delle persone se queste condividono le stesse conseguenze. Prendiamo il caso di un politico con alti e bassi nel suo partito: se decide di lasciare le dinamiche del pensiero di gruppo, assumendo un atteggiamento più critico, ottiene nel breve periodo qualche vantaggio (per esempio per quanto riguarda la visibilità), ma rischia di pagare dei costi individuali molto alti per la sua scelta e di fallire nel far comprendere gli eventuali errori commessi dal gruppo finendo escluso.

Ne consegue che le persone si sentono incentivate a proseguire nei loro ragionamenti automotivati, ignorando i fatti che indicano chiaramente che bisognerebbe affrontare un determinato problema in modo diverso. Il gruppo diventa più coeso intorno a convinzioni sbagliate e ancora meno disposto a riconoscere gli errori, tanto meno le eventuali critiche mosse da chi al suo interno o all’esterno la pensa diversamente. Il meccanismo porta a conformarsi a un modo unico di vedere le cose, che spesso si rivela fallace quando ormai è troppo tardi e il sistema entra in crisi.

Per evitare che si verifichino queste crisi, l’ideale sarebbe ridurre il costo del riconoscere un errore. Un giornale online di economia, l’Econ Journal Watch, ha organizzato una sezione del suo sito nel quale viene chiesto agli osservatori economici di raccontare le loro previsioni e dichiarazioni sbagliate di cui si sono più pentiti, nella loro vita professionale. Se ripetuta con regolarità, una pratica di questo tipo consente di imparare a riconoscere i propri errori, attribuire loro il giusto peso e soprattutto vederli nella loro interezza, passo fondamentale per riuscire a cambiare idea e convinzioni sbagliate. Non tutti i partecipanti all’iniziativa dell’Econ Journal Watch sono comunque onesti: molti tendono per esempio a scaricare parte delle loro responsabilità su altri, quando spiegano dove hanno sbagliato a fare un’analisi o una previsione; altri sono più aperti e disposti ad assumersi le loro responsabilità.

Il problema di fondo è che in una realtà altamente polarizzata, dove spesso i fatti sono secondari rispetto alle convinzioni, non sempre è vantaggioso riconoscere di avere sbagliato e di avere fatto un errore. Un politico che si scusa, per esempio, si espone alle critiche delle parte opposta che è solo interessata a guadagnare politicamente dall’errore del suo avversario e non a capire che cosa sia andato storto e che insegnamento se ne possa trarre. Lo stesso vale negli ambienti accademici, dove spesso le teorie più radicate e condivise faticano ad accogliere nuove punti di vista, anche quelli che dimostrano nei fatti di avere un fondamento. Il rischio è che le critiche fattuali scompaiano o diventino sempre più irrilevanti, rispetto a quelle basate su convinzioni sbagliate e che hanno la sola forza di essere condivise da molte persone.