Heuristics and biases

Daniel Kahneman è uno di quegli studiosi che hanno cambiato il mio modo di vedere il mondo (e non solo il mio, non serve dirlo).

Su Edge, una sua conversazione che vale, davvero, la pena ascoltare (o leggere, visto che c’è pure la trascrizione). Si parla della grandezza e dei limiti (e rischi correlati) del pensiero intuitivo.

Soltanto un paio di passaggi, presi quasi a caso:

[…]  Noi (lui e Amos Tversky) abbiamo finito per studiare qualcosa che abbiamo chiamato “euristiche e biases”. Le prime erano delle scorciatoie, ed ogni scorciatoia era identificata attraverso il bias che portava con sé. I biases avevano due funzioni in questa storia. Erano interessanti in sé, ma erano anche la prova primaria dell’esistenza dell’euristica. Se vuoi caratterizzare come qualcosa viene fatto, allora uno dei modi più efficaci per caratterizzare il modo in cui la mente fa qualcosa è guardare agli errori che la mente produce mentre fa quella cosa, perché gli errori ci parlano di ciò che sta facendo. Le performance corrette ti dicono molto meno circa le procedure di quanto dicano gli errori.
Ci siamo concentrati sugli errori. Siamo stati completamente identificati con l’idea che la gente in genere sbaglia. Siamo diventati delle specie di profeti dell’irrazionalità. Non ci è mai piaciuto, ed una delle ragioni è che noi stessi eravamo i nostri migliori soggetti di studio. Non abbiamo mai pensato di essere stupidi, ma non abbiamo mai fatto nulla che non funzionasse su noi stessi. Non è che noi stessimo studiando gli errori altrui, noi stavamo costantemente studiando il modo di funzionare della nostra mente, ed anche quando lo capivamo meglio, eravamo in grado di dire quali fossero gli errori che ci insidiavano, e in fondo tentavamo di caratterizzare quali fossero gli errori più insidiosi.

[…] La fiducia che la gente ha nelle proprie convinzioni non è una misura della qualità delle prove, non è un giudizio sulla qualità delle prove, ma è un giudizio sulla coerenza della storia che la loro mente si è impegnata a costruire. Spesso si possono costruire ottime storie su pochissime prove, dove ci sono pochi dati, nessun conflitto, e la storia arriva bene alla fine. Le persone tendono a credere, ad avere fede in storie che sono basate su poche prove. Questo genera ciò che Amos ed io abbiamo chiamato “natural assessments” […]
La cosa principale su cui Amos Tversky ed io abbiamo lavorato sono i casi in cui la verosimiglianza è usata al posto della probabilità. Il nostro esempio più famoso è quello di una donna che abbiamo chiamato Linda. […] Linda ha studiato filosofia al college, è la maggior parte pensano abbia frequentato Berkeley. Ha partecipato a marce anti-nucleari, era molto attiva, e vivace. Sono passati dieci anni. Che sta facendo ora?  È una contabile? Risponderemmo di no. È una cassiera in banca? No. È una femminista? Sì. È una femminista cassiera in banca? Sì. Vedete che cosa accade. Rispondiamo che è una femminista cassiera perché, in termini di verosimiglianza, è perfetto rispondere che lei somiglia più a una femminista cassiera che a una cassiera. In termini di probabilità non funziona. Ciò che accade è che ti viene chiesto di calcolare probabilità, e calcolare probabilità è difficile, la verosimiglianza è immediata; è un natural assessment. Giungerà per primo, e ostacolerà il calcolo corretto.

Si tratta, ripeto, soltanto di un paio di frammenti.

L’intera conversazione è una miniera di spunti come questi.

[Via Luca De Biase]

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Fornisci il tuo contributo!

Rispondi

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.