0

Lo strano caso della responsabilità. Perché non sempre è utile dar conto delle proprie scelte

I Commenti de "Il Sole 24 Ore" - Mind the Economy, la serie di articoli di Vittorio Pelligra sul Sole 24 ore

di Vittorio Pelligra

pubblicato su Il Sole 24 ore del 25/04/2021

La vita è la somma di tutte le tue scelte”, ci ricorda Albert Camus. Può valere la pena, quindi, cercare di capire a fondo qual è la logica che sottende alle nostre decisioni. Addentrarsi su questo terreno vuol dire anche, necessariamente, esplorare il tema della fragilità del pensiero umano, degli errori cui i nostri processi cognitivi spesso ci inducono e delle strategie che possono essere adottate per cercare di limitare l’occorrenza di tali errori e provare ad attenuarne le conseguenze. Comprendere la differenza tra errori propriamente detti ed errori sistematici o bias. Questi ultimi, diversamente dai primi, sono effetti collaterali delle strategie cognitive, vere e proprie scorciatoie mentali, che utilizziamo per ridurre la complessità del mondo e gestire meglio la sovrabbondanza delle informazioni presenti, generalmente, nei nostri scenari decisionali.

La differenza tra errori imprevedibili ed errori sistematici

Mentre gli errori sono imprevedibili, i bias, invece, essendo sistematici sono prevedibili e quindi più facilmente prevenibili. Il de-biasing è quell’insieme di attività che possono essere messe in campo per ridurre l’impatto dei bias sui nostri giudizi e sulle nostre decisioni. Sono operazioni complesse perché si basano, innanzitutto, sulla consapevolezza della nostra fragilità e fallibilità, una consapevolezza che non è sempre facile acquisire intimamente né, tantomeno, ammettere apertamente.

Le operazioni di de-biasing, poi, devono essere estremamente specifiche, calibrate, cioè, sul tipo di errore che si vuole eliminare e sulla particolare situazione decisionale in cui lo stesso errore è più probabile che si manifesti. In altri termini, è difficile pensare ad una tecnica di de-biasing come ad un farmaco ad ampio spettro. Si può correre il rischio, infatti, che lo stesso rimedio contribuisca a mitigare alcuni errori e, contemporaneamente, faccia crescere la probabilità che se ne verifichino degli altri. È questo lo strano caso della “responsabilità” o, con termine più alla moda, dell’accountability.

Responsabilità ergo saggezza?

L’ipotesi di fondo da cui partiamo è quella secondo cui l’essere ritenuti responsabili di una scelta e delle sue conseguenze spinga le persone verso decisioni più sagge, decisioni che dovrebbero scaturire da un processo nel quale vengono attentamente pesate tutte le alternative possibili, le varie conseguenze, tutte le informazioni rilevanti e, in questo modo, si possa limitare l’effetto distorsivo delle euristiche.

Essere ritenuti responsabili può voler dire, naturalmente, molte cose; etimologicamente il termine indica la capacità di “dare risposte”, cioè di giustificare ad altri o anche a sé stessi le ragioni delle proprie azioni. In questo senso la riflessione che ci porta ad esplicitare i ragionamenti che ci hanno condotto ad una certa decisione, riducendo lo spazio d’azione delle pulsioni inconsce, dovrebbe immunizzarci dagli effetti distorsivi delle euristiche.

Ma essere responsabili implica anche la necessità di assumersi le conseguenze delle proprie azioni, siano quando sono positive, ma soprattutto quando queste sono negative. Il grado di responsabilità attribuito ad una persona può essere manipolato e può assumere forme differenti: si può essere “responsabilizzati”, per esempio, anche solo dalla presenza di altre persone nel momento in cui devo esprimere un giudizio o compiere un’azione; la possibilità di essere identificati univocamente come autori di quella particolare decisione è un altro modo per sentirsi responsabili; un altro modo è sapere di essere sottoposti a valutazione sulla base di certi principi convenzionali o morali; fino, poi, alla circostanza nella quale, esplicitamente, ci può essere chiesto di giustificare le ragioni che hanno animato la nostra condotta. Indipendentemente dalla forma specifica, si assume che la responsabilizzazione eserciti effetti positivi sulla qualità del processo decisionale.

Gli studi che lo confermano

E sono molti, infatti, gli studi che suffragano questa ipotesi. Nel caso dell’overconfidence, per esempio, l’inveterata tendenza a sovrastimare le nostre capacità o la bontà delle nostre convinzioni, viene, in qualche modo attenuata, quando si rende saliente la responsabilità individuale associata a certe azioni o a certe convinzioni. Un esempio particolarmente grave di overconfidence è quello che spesso si verifica con i testimoni oculari di un crimine. Mentre si sarebbe portati a pensare che una maggiore sicurezza del testimone possa essere correlata positivamente con l’accuratezza dei suoi giudizi, l’evidenza mostra che tale correlazione è totalmente illusoria. Un testimone fortemente convinto di ciò che ha visto non è, necessariamente, un testimone più attendibile di un testimone incerto.

Naturalmente questo rappresenta un problema non da poco, visto il peso che le testimonianze oculari hanno nei processi e visto l’impatto psicologico che un testimone risoluto può avere su un giudice e una giuria. Per ridurre i potenziali effetti negativi si può procedere in due modi: da una parte si può rendere esplicita l’assenza di correlazione tra convinzione e accuratezza, in modo che i giudici e i giurati siano avvertiti e possano dare il giusto peso alla testimonianza, indipendentemente dall’atteggiamento del testimone.

Si può anche seguire un’altra strada, cercando, per esempio, di rendere quel nesso tra convinzione e attendibilità effettivamente più stretto, in modo che, poi, l’impressione ricavata da giudici e giurati possa essere, in definitiva, più accurata. A volte, in questo senso, può bastare molto poco, come dimostrano Saul Kassin, Sylvia Castillo e Scott Rigby con un semplice esperimento. Nello studio i soggetti guardano un breve filmato tratto da una telecamera di sicurezza che riprende un furto all’interno di un bar. Dopo aver risposto ad una serie di domande relative alla scena del crimine e alle caratteristiche del ladro e della vittima, ai partecipanti viene chiesto di identificare il colpevole tra una serie di sospettati le cui foto vengono mostrate una dopo l’altra al testimone.

Dopo aver operato l’identificazione i partecipanti completano una serie di questionari nei quali, tra le altre cose, gli viene chiesto di valutare il loro livello di sicurezza circa la decisione appena presa. I risultati mostrano che il grado di fiducia che emerge da questa autovalutazione e l’accuratezza delle risposte e la corretta identificazione del colpevole non c’è nessun tipo di relazione statisticamente significativa.

Le cose cambiano, però, con l’introduzione di una piccola variante nelle procedure sperimentali. Un secondo gruppo di partecipanti, infatti, svolge esattamente gli stessi compiti, sapendo però di essere a loro volta videoregistrati. Le immagini li riprendono intenti a valutare tutte le prove e a rispondere alle domande. Questo video viene loro mostrato poco prima di autovalutare il livello di confidenza nella testimonianza.

Quello che si osserva è che in questo secondo gruppo, diversamente dal primo, la fiducia nelle proprie osservazioni e l’accuratezza della testimonianza sono fortemente correlate: adesso il testimone più convinto è anche quello più affidabile (“The accuracy-confidence correlation in eyewitness testimony: Limits and extensions of the retrospective self-awareness effect”. Journal of Personality and Social Psychology 5, pp. 698-707, 1991).

Attenzione alla manipolazione del senso di responsabilità

A spiegare il fenomeno è il fatto che rivedersi mentre si valutano le ipotesi, si ponderano le possibilità e, infine, si prende la decisione, ci fornisce una serie di informazioni utili che sono disponibili solo ad un osservatore esterno: la nostra postura, il tempo di risposta, le espressioni facciali, le sopracciglia aggrottate e le labbra mordicchiate, e molti altri segnali non verbali ma altamente informativi. L’accesso a tali informazioni, che rappresentano una forma di accountability verso noi stessi, rende più calibrata la percezione dell’accuratezza della nostra testimonianza, ci rende più umili, ci aiuta a problematizzare la scelta e, così, funge da antidoto all’overcofidence. Ma le cose non vanno sempre così lisce. In altri frangenti, infatti, la manipolazione del senso di responsabilità determina effetti controproducenti.

È il caso della loss aversion, quel fenomeno per il quale, sistematicamente, attribuiamo più valore ad una perdita che non ad un guadagno dello stesso ammontare. È la loss aversion, per esempio, che ci induce a essere prudenti davanti alla possibilità di una vincita incerta e a correre il rischio, al contrario, quando ci si prospetta la possibilità di una perdita incerta. In un esperimento i cui risultati sono oggi di grandissima attualità, Philip Tetlock e Richard Boettger, hanno simulato il processo decisionale attraverso il quale la Food and Drug Administration autorizza o meno la commercializzazione di un nuovo farmaco negli USA. Tutti i partecipanti allo studio avevano accesso alle informazioni rilevanti relative ai benefici del farmaco, agli effetti collaterali e alle stime relative al numero di vite salvate o di possibili morti. Ogni partecipante doveva poi esprimere un giudizio sull’ammissibilità del farmaco.

La variabile accountability veniva manipolata rendendo le scelte di un gruppo di soggetti totalmente anonime e riservate, mentre i membri di un secondo gruppo sarebbero successivamente stati intervistati da un ricercatore con effettiva esperienza nel processo decisionale dell’FDA al quale avrebbero dovuto giustificare le loro scelte rispondendo allo stesso tipo di domande che generalmente vengono poste dalla stampa e dai politici ai membri della FDA.

I risultati dello studio mettono in luce diversi effetti: come è facile immaginare la percentuale di favorevoli cresce all’aumentare dei benefici e al ridursi dei rischi, ma non sempre. A parità di informazioni, infatti la percentuale di favorevoli si riduce quando la scelta dev’essere giustificata, quanto cioè si introduce la variabile accountability. In questo caso viene sovrastimato il peso dei pochi effetti collaterali e sottostimato quello dei molti benefici.

Gli autori spiegano questi risultati sottolineando l’interazione di due fenomeni che si auto-rinforzano: da una parte dell’avversione alla perdita, che viene esacerbata dal senso di vergogna che si proverebbe nel non saper fornire giustificazioni valide o sufficienti per l’introduzione del farmaco al medico intervistatore. Questi due fenomeni interagiscono nei processi decisionali reali soprattutto in ambito politico e riducono le chances di proposte innovative capaci di modificare lo status quo (“Accountability amplifies the status quo effect when change creates victims”. Journal of Behavioral Decision Making, 7, pp. 1-23, 1994).

Questi due esempi di come la responsabilizzazione può produrre effetti che mitigano e contemporaneamente accrescono i bias cognitivi, indicano, come dicevamo all’inizio, che i processi di debiasing possono essere molto complicati e affinché siano efficaci vanno calibrati individualmente sul singolo problema che si vuole risolvere.Un ulteriore problema si pone relativamente al fatto che non è sufficiente scoprire che una certa strategia di debiasing può ridurre una certa distorsione, è anche necessario capire se e come quella data strategie verrà appresa ed applicata. Qui gioca un ruolo chiave la nostra umiltà: partire presumendo di essere vulnerabili e fallibili è certamente una buona politica, convinti del fatto che l’unico vero insuccesso sarebbe, però, smettere di provarci.

Questo sito utilizza cookie tecnici, anche di terze parti, per consentire l’esplorazione sicura ed efficiente del sito. Chiudendo questo banner, o continuando la navigazione, accetti le nostre modalità per l’uso dei cookie. Nella pagina dell’informativa estesa sono indicate le modalità per negare l’installazione di qualunque cookie.