Mind the economy

0

La trappola della conferma o del perché non ci piace troppo aver torto

I Commenti de "Il Sole 24 Ore" - Mind the Economy, la serie di articoli di Vittorio Pelligra sul Sole 24 ore

di Vittorio Pelligra

pubblicato su Il Sole 24 ore del 28/03/2021

Perché il talkshow politico «Piazza Pulita» ha un’audience prevalentemente di sinistra, mentre «Porta a Porta», invece, è più seguito da un pubblico orientato a destra? Piuttosto semplice a pensarci bene: perché ci piace avere ragione. Ci piace, in particolare, sentire fatti e opinioni che confermano la nostra visione del mondo, che rafforzano le nostre idee e ci fanno sentire rassicurati, nel giusto.

L’esperimento di Wason

In un famoso studio pubblicato nel 1960 dallo psicologo Peter Cathcart Wason, i partecipanti dovevano cercare di capire quale regola avesse in mente lo sperimentatore quando formava delle triplette di numeri. Per esempio, la tripletta «2-4-6» poteva essere spiegata con la regola «i primi tre numeri pari» oppure con la regola «la differenza dei primi numeri è uguale alla differenza degli ultimi due». Quali di queste aveva, effettivamente, usato lo sperimentatore? Le possibilità sono molteplici, perché le regole che si adattano alla sequenza sono diverse, naturalmente. Quella che aveva in mente lo sperimentatore era la più semplice di tutte «Qualunque sequenza ascendente di numeri». Eppure, tra i 29 i partecipanti allo studio di Wason, solo sei riuscirono a scoprirla al primo colpo (On The Failure to Eliminate Hypotheses in a Conceptual Task, «Quarterly Journal of Experimental Psychology» 12, 3, pp. 129–140).

Le differenze con il rasoio di Occam

Il «rasoio di Occam» è un principio metodologico che prevede che la soluzione più semplice, a parità di risultati, debba essere anche quella preferibile. I soggetti di Wason, invece, non solo non seguivano questo principio, ma evitavano sistematicamente di mettere in atto la corretta strategia per testare la validità delle loro ipotesi. Non bastano mille cigni bianchi per confermare l’ipotesi che tutti i cigni sono bianchi, mentre è sufficiente osservare anche solo un cigno nero per falsificarla. La strada più sicura e veloce per testare un’ipotesi è, dunque, cercare di falsificarla attraverso dei controesempi. Invece, i partecipanti allo studio, una volta ipotizzata una regola, cercavano di corroborarla, ottenendo, però, in questo modo, delle informazioni totalmente inutili per capire se effettivamente la loro ipotesi era la stessa dello sperimentatore. Per ottenere la soluzione corretta, conclude Wason, occorre «essere disposti a mettere in discussione le proprie ipotesi e, quindi, di sottoporre a verifica quelle idee intuitive che così spesso ci si presentano con un senso di assoluta certezza» (p. 139).

Il principio del «confirmation bias»

Per capire occorre essere disposti a mettersi in discussione; cosa che noi facciamo, generalmente, poco e con grande riluttanza. Lo studio approfondito di questi stili di ragionamento portò Wason a coniare il termine «confirmation bias»; un’espressione che descrive la sistematica tendenza a ricercare, preferire e ricordare più facilmente quelle informazioni che sono in accordo con le nostre credenze a priori, le nostre opinioni e i nostri valori. Quando ci imbattiamo in fatti o opinioni che sembrano in accordo con ciò che noi già pensiamo siamo propensi ad accoglierli favorevolmente e con spirito acritico. Se anche dovessimo provare ad analizzarli lo faremmo con l’atteggiamento di chi si chiede bonariamente, come suggerisce Thomas Gilovich, «potrei essere d’accordo?». Quando, al contrario, le informazioni in cui ci imbattiamo, sono in contraddizione con le nostre credenze, allora l’atteggiamento cambia. Se proprio non le ignoriamo, certo ne minimizziamo l’importanza, magari contestiamo l’autorevolezza della fonte e se le prendiamo in considerazione, lo facciamo con l’atteggiamento sospettoso di chi cerca una risposta alla domanda «Perché dovrei crederci?». Nel primo caso lo spirito è leggero e accondiscendente, nel secondo, invece, sarà scettico e intransigente, volto più alla ricerca di ragioni per non credere che ad apprendere, magari, qualcosa di nuovo. Ci comportiamo in questo modo non tanto a causa dei nostri pregiudizi – piuttosto sono i nostri pregiudizi ad essere conseguenza del bias della conferma – ma perché la nostra mente funziona così e in particolare perché la nostra memoria è soggetta a dinamiche peculiari. Innanzitutto, il semplice fatto di considerare certe ipotesi rende le informazioni che sono coerenti con queste più facili da recuperare dalla nostra memoria. Sono quelle, dunque, che si presentano alla nostra attenzione più velocemente e ci appaiono, per questa ragione, più convincenti. In secondo luogo, poi, il bias della conferma viene rafforzato dal modo in cui noi cerchiamo le informazioni nell'ambiente circostante, così ricco di dati e abbondante di stimoli, che ci induce, per forza, a un processo di selezione. Questa necessità di selezionare le informazioni che riteniamo più rilevanti ci porterà ad andare a cercarle proprio lì dove sappiamo che le troveremo. Ecco perché, tra le altre cose, preferiamo leggere Libero invece che Repubblica, o l’Espresso e non Panorama.

Comprare Avvenire e, insieme, Il Manifesto

Mi ricordo di un amico che durante la prima guerra del Golfo, per cercare farsi un’idea precisa di cosa realmente stesse succedendo, aveva deciso di compare ogni giorno Avvenire assieme a Il Manifesto; ma questi sono casi piuttosto rari, purtroppo. La trappola della conferma è ubiqua e piuttosto insidiosa nei suoi effetti, dalla sfera politica alla vita delle imprese, dall'amministrazione della giustizia ai rapporti umani. Ci ricorda Paul Watzlawski nel suo Istruzioni per rendersi infelici, che «la credenza che la realtà che ognuno vede sia l’unica realtà è la più pericolosa di tutte le illusioni». Una vera e propria ricetta per l’infelicità nella vita di coppia. «Non c’è quasi nulla di meglio, nella creazione dell’infelicità, che il mettere l’inconsapevole partner di fronte all’ultimo anello di una lunga e complicata catena immaginaria, nella quale egli svolge un ruolo decisivo e negativo. Il suo sconcerto, il suo sgomento, il suo asserito non comprendere, la sua indignazione, il suo voler discolparsi sono per voi la prova inconfutabile che avete ragione, che avete accordato la vostra benevolenza a chi non lo meritava, e che ancora una volta si è abusato della vostra bontà».

Attenti alla trappola della conferma

In tempi recenti, quella della conferma, è diventata una vera e propria trappola capace di inquinare pericolosamente il dibattito pubblico, in particolare con la diffusione dei social e con il crescente utilizzo che ne viene fatto dai leader politici e dai vari gruppi di interesse. Per loro stessa natura, infatti, i social selezionano le informazioni cui ogni utente viene esposto. E naturalmente gli algoritmi sono programmati in modo tale da individuare e mostrare le informazioni che sono più in linea coi gusti e le credenze di ogni utente, per mantenerne viva l’attenzione e piacevole l’esperienza di navigazione, in modo da allungarne i tempi e, quindi, la quantità di dati estraibili. Per questa ragione, non solo ognuno di noi sceglierà consapevolmente le informazioni e le fonti con le quali si trova maggiormente d’accordo, ma l’algoritmo rinforzerà tale tendenza sottoponendoci principalmente lo stesso tipo di informazioni, quelle delle fonti dirette e quelle ripostate dai nostri amici, che, in quanto amici, in larga misura la penseranno come noi. Queste dinamiche sono alla base dei fenomeni sempre più diffusi ed evidenti come, per esempio, la perseveranza in posizioni che i dati hanno dimostrato essere inequivocabilmente false, o l’accettazione di spiegazioni basate su correlazioni illusorie o, ancora, la polarizzazione delle opinioni.

Quando l’informazione neutrale «polarizza»

In uno studio di qualche anno fa, gli psicologi, Keith Stanovich e Richard West presentarono a due gruppi di partecipanti delle informazioni statistiche relative alla pericolosità di un certo modello di automobile e chiesero una valutazione sull’opportunità che quel veicolo continuasse a girare liberamente per le strade. Le statistiche erano reali e riferite alla Ford Explorer, un’auto effettivamente piuttosto pericolosa stando ai dati. Ma non a tutti i soggetti la marca e il modello dell’auto venne rivelato. Al primo gruppo, infatti, venne detto che quell’auto era di fabbricazione tedesca e che il dipartimento dei trasporti americano stava valutando la possibilità di vietarne la circolazione all’interno degli Usa. Sarebbero stati d’accordo con il divieto? Il 78.4% del campione si disse d’accordo. Al secondo gruppo, invece, si disse effettivamente che l’auto era una Ford Explorer e che era il dipartimento dei trasporti tedesco a valutare la possibilità del divieto di circolazione sulle strade della Germania. In questo secondo scenario l’adesione al divieto calò al 51.4% (On the relative independence of thinking biases and cognitive ability, «Journal of Personality and Social Psychology», 94, 2008, pp. 672–695). In un altro classico esperimento, Charles Lord, Lee Ross e Mark Lepper selezionarono attentamente un campione di partecipanti equamente composto da sostenitori e oppositori della pena di morte. A ciascuno di essi vennero consegnati due differenti opuscoli contenti, uno informazioni orientate a sostenere la validità della pena di morte come deterrente alla criminalità e l’altro, invece, dati che smentivano tale efficacia. Dopo aver letto e analizzato entrambi gli opuscoli ai partecipanti venne chiesto quale dei due avessero ritenuto più convincente. Come immaginabile, purtroppo, tutti i partecipanti ritennero più convincente l’opuscolo contente informazioni a favore della loro posizione iniziale che ne risultò, quindi, rafforzata (Biased assimilation and attitude polarization, «Journal of Personality and Social Psychology», 37, 11, 1979, pp. 2098–2109). L’esposizione alle stesse informazioni neutrali, invece di portare a una convergenza verso posizioni più sfumate, produce, proprio a causa della trappola della conferma, una crescente polarizzazione che naturalmente rende più complicato il dialogo e la mediazione.

L’importanza di essere bastian contrario

Quanto ci sarebbe necessario, spesso, un amico bastian contrario, il tipico avvocato del diavolo! Eppure, con questi tendiamo a non andare molto d’accordo, meglio un altro più affine e simile a noi, con il quale condividere le stesse opinioni e passioni, nonostante sia meno capace di offrirci spunti preziosi per la nostra obiettività e crescita personale. Non ci piace avere torto e cerchiamo di evitarlo in ogni modo, logico o illogico che sia. E questo vale per tutti. Un aspetto interessante dello studio di Stanovich e Richard West è, infatti, che la tendenza alla distorsione della conferma è del tutto indipendente dal quoziente intellettivo dei partecipanti. Ma allora non c’è via d’uscita da questo vicolo cieco? Siamo condannati alla partigianeria, alla faziosità, alla totale mancanza di obiettività? No, in realtà qualcosa si può fare. Gli esperti di de-biasing, coloro che, cioè, ci possono aiutare a ridurre gli effetti negativi delle distorsioni cognitive sulle nostre decisioni e sui nostri giudizi, suggeriscono un processo in quattro tappe: la prima riguarda la presa di coscienza dell'esistenza delle distorsioni, dei rischi e delle ragioni per cui si manifestano; la seconda prevede la descrizione degli effetti e della direzione verso cui sistematicamente veniamo spinti; la terza fase riguarda la produzione di feedback, per farci capire se gli sforzi che stiamo imparando a fare per controllare le distorsioni stanno producendo gli effetti sperati; infine, la quarta fase riguarda un intenso percorso di allenamento mentale e di tutoraggio per consolidare le nuove strategie cognitive appena sviluppate. Non è un percorso facile e alla portata di tutti, ma si potrebbe iniziare anche solo dal punto uno: prendere coscienza dell'esistenza e dei rischi della trappola della conferma. Non risolve, ma certamente aiuta.

Image

SFOGLIA L'ARCHIVIO

Lingua: ITALIANO

Filtro Categorie Archivio

Seguici su:

Rapporto Edc 2018

Rapporto Edc 2018

SCARICA I DOCUMENTI

SCARICA I DOCUMENTI

L’economia del dare

L’economia del dare

Chiara Lubich

"A differenza dell' economia consumista, basata su una cultura dell'avere, l'economia di comunione è l'economia del dare..."

Le strisce di Formy!

Le strisce di Formy!

Conosci la mascotte del sito Edc?

Il dado per le aziende!

Il dado per le aziende!

La nuova rivoluzione per la piccola azienda.
Scarica la APP per Android!

Chi è online

Abbiamo 731 visitatori e nessun utente online

© 2008 - 2024 Economia di Comunione (EdC) - Movimento dei Focolari
creative commons Questo/a opera è pubblicato sotto una Licenza Creative Commons . Progetto grafico: Marco Riccardi - edc@marcoriccardi.it

Please publish modules in offcanvas position.

Questo sito utilizza cookie tecnici, anche di terze parti, per consentire l’esplorazione sicura ed efficiente del sito. Chiudendo questo banner, o continuando la navigazione, accetti le nostre modalità per l’uso dei cookie. Nella pagina dell’informativa estesa sono indicate le modalità per negare l’installazione di qualunque cookie.