Hume PageHume Page

Dieci buoni motivi per non credere (troppo) ai sondaggi – 8. Errore di indicazione

12 Luglio 2022 - di Paolo Natale

In primo pianoSocietà

Questo è il terzo dei classici errori “tecnici” presenti in ogni tipo di sondaggio, unitamente ai già ricordati errore di campionamento e di rilevazione, e si riferisce al momento in cui il ricercatore deve cercare e trovare il miglior modo per misurare un concetto con un alto livello di astrazione, che non possiede cioè una propria unità di misura. Mentre per molte proprietà si può procedere facilmente alla loro identificazione tramite una classificazione (il partito votato, ad esempio), un conteggio (il numero di libri letti annualmente) o una misurazione (il tempo impiegato per recarsi sul luogo di lavoro), per quelle che più interessano alla ricerca sociale o politica le difficoltà per registrarle sono infinitamente maggiori. Per intendere appieno la difficoltà di questo tipo di “misurazione”, occorre sottolineare due aspetti.

Il primo è che i fenomeni sociali, gli atteggiamenti e le opinioni, molto difficilmente assumono la forma di fenomeni misurabili o classificabili: ne abbiamo citate alcune (l’età, il reddito, rilevazioni basate sul tempo, o sul conteggio, il titolo di studio, il partito votato), che rimangono comunque limitate. I fenomeni demarcati da un’unità di misura naturale, pur essendo ottimali dal punto di vista delle possibilità di analisi, sono nella realtà abbastanza rari.

Il secondo è che il ricercatore sociale è interessato proprio a quei fenomeni che difficilmente si manifestano in forme naturalmente misurabili; il grado di soddisfazione per la democrazia, il livello socio-economico di un paese, il grado di simpatia per un personaggio politico, il tasso di xenofobia degli abitanti del nostro paese, il grado di fiducia in una istituzione: tutti questi atteggiamenti ed opinioni, il cui significato è per ognuno di noi perfettamente comprensibile, non possiedono alcuna specifica modalità “naturale” per poter essere misurati. Non disponiamo di un’unità di misura condivisa, né naturalmente né convenzionalmente, per quelle proprietà (quei concetti) che si situano ad un livello di astrazione molto elevato.

Per ovviare a questo “deficit di misurabilità” si ricorre quindi a tecniche di rilevazione che, utilizzando unità di misura certamente arbitrarie ma omogenee all’interno della singola indagine, permettono di ottenere risultati certo comprensibili ma, in qualche modo, contestabili. Vediamo perché.

L’esempio più classico di queste misurazioni “arbitrarie”, divenuto peraltro nel tempo uno standard riconosciuto di misura, è quello del quoziente di intelligenza (il Q.I.), che si può a buon diritto definire il prototipo di questo procedimento: introdotto all’inizio del secolo scorso in ambito psicometrico, esso si basa su una serie di test la cui sommatoria (o il suo indice sintetico) fornisce un punteggio che misura una proprietà astratta, il livello di intelligenza di un individuo, altrimenti non quantificabile. Non tutte le unità di misura arbitrarie hanno avuto la fortuna di divenire uno standard universalmente accettato; sono anzi molte quelle che presentano un tempo di vita limitato unicamente al breve spazio dell’indagine contingente.

Ma anche in questo caso, ormai riconosciuto come una sorta di standard di riferimento, come possiamo essere certi che sia questa la procedura più corretta per “misurare” l’intelligenza di un individuo? È possibile, a livello teorico, pensare che esistano modalità migliori per definire il grado intellettivo delle persone, e alcuni psicologi si sono cimentati in questo campo, ottenendo anche buoni risultati. Resta però costantemente presente il dubbio di stare commettendo un errore nella procedura utilizzata, perché non sapremo mai quale sia il modo migliore per misurare qualcosa di immisurabile, di molto astratto. Sappiamo dunque che potremmo sbagliarci, benché non potremo mai valutare esattamente quale sia il livello, la portata di questo errore di indicazione.

Ciononostante, tutte queste procedure rimangono valide e spesso indispensabili per poter registrare gli atteggiamenti degli intervistati o le differenze presenti nei diversi casi dell’analisi. Queste diverse modalità di rilevazione prendono il nome di tecnica delle scale, ormai entrate nel bagaglio metodologico di gran parte delle ricerche e delle rilevazioni demoscopiche. Non occorre sottolineare il fatto che, considerata l’estrema arbitrarietà del procedimento di costruzione di questi indici, sarà in questo frangente ancor più importante che il ricercatore espliciti il percorso utilizzato in maniera particolarizzata, attraverso una dettagliata “definizione operativa”, vale a dire le regole che abbiamo seguito per misurare questi concetti con alto livello di astrazione.

Paolo Natale

estratto del volume “Sondaggi”, in uscita nel prossimo autunno presso Laterza

Dieci buoni motivi per non credere (troppo) ai sondaggi – 6. Errore di copertura e 7. Errore di mancata risposta

11 Luglio 2022 - di Paolo Natale

SocietàSpeciale

I due tipi di distorsione che vedremo ora fanno entrambi parte del cosiddetto errore di rilevazione; al contrario dell’errore di campionamento, sempre presente ma calcolabile, questo tipo di errore potrebbe teoricamente non esserci (peraltro solo in teoria…) ma non è comunque mai calcolabile: non sappiamo dunque di quanto sbagliamo nella generalizzazione delle nostre stime.

L’errore di copertura si verifica in diverse fasi dell’indagine e per diversi motivi. Può essere dovuto alla mancanza di un elenco completo dell’universo dei possibili intervistati, da cui estrarre il campione, alla impossibilità di reperimento di una quota significativa di individui campionati o al loro rifiuto preventivo di rispondere alle domande. Nel primo caso nulla si può fare, mentre negli altri due è possibile ovviare al problema estraendo preventivamente ulteriori campioni, chiamati “di riserva”, che prenderanno il posto dei soggetti irreperibili, sostituendoli quindi con nuovi individui reperibili e/o disponibili a collaborare. Ma è ovvio che così facendo introduciamo una (possibile) fonte di distorsione a volte piuttosto grave: come possiamo sapere se l’individuo sostituito risponderebbe in maniera simile al suo sostituto? Solitamente, quando si pubblicano i risultati di un sondaggio, in caratteri molto piccoli, a volte quasi invisibili, viene inserito anche il dato relativo al numero delle sostituzioni, che molto spesso sono almeno tre-quattro volte più numerose delle interviste effettivamente effettuate, come nel caso (tipico) qui riportato.

Indagine condotta con tecnica mista CATI-CAMI-CAWI su un campione di 1200 soggetti maggiorenni residenti in Italia (4566 non rispondenti) il 7 giugno 2022.

Il che significa molto semplicemente che l’Istituto di ricerca è riuscito a intervistare 1200 soggetti facendo quasi 6000 tentativi! Quei quasi cinquemila individui irreperibili o non disponibili avrebbero dato risposte simili? Può darsi di sì o può darsi di no; non lo sappiamo né potremo mai saperlo.

 

L’errore di mancata risposta si verifica invece quando una parte di coloro che vengono intervistati non vogliono rispondere ad alcune delle domande del questionario, oppure si dichiarano indecisi sulla risposta da fornire oppure ancora non sanno semplicemente cosa rispondere. Prendiamo ad esempio il caso più ricorrente, un sondaggio cioè sulle intenzioni di voto, con una numerosità campionaria di 800 casi: negli ultimi mesi, il numero di intervistati che si dichiara indeciso, che non vuole rispondere o che opta per l’astensione risulta spesso pari se non superiore al 40% del campione. Una parte di loro, diciamo intorno al 25%, non si recherà effettivamente alle urne, ma il restante 15% ci andrà e avrà un certo comportamento di voto, che potrebbe ribaltare completamente i risultati che ci vengono proposti. Come possiamo sapere se chi oggi non indica la propria preferenza elettorale si distribuirà, il giorno delle votazioni, esattamente come chi l’ha invece indicata? Ma non solo. Il problema ulteriore è che le stime che noi leggiamo si riferiscono non più a 800, ma soltanto a 480 individui (con un errore di campionamento – peraltro – molto superiore a quello indicato), che ci dicono siano rappresentativi della popolazione elettorale italiana. Saranno davvero rappresentativi di tutti gli elettori oppure soltanto di quelli più sicuri del proprio voto e/o propensi a dichiararlo?

Paolo Natale

*estratto del volume “Sondaggi”, in uscita nel prossimo autunno presso Laterza

Dieci buoni motivi per non credere (troppo) ai sondaggi – 5. Errore di campionamento

8 Luglio 2022 - di Paolo Natale

In primo pianoSocietà

È un tipo di errore insopprimibile in tutti i sondaggi basati su campioni probabilistici (dove cioè tutti hanno la medesima probabilità di essere estratti), per il semplice fatto che intervistando un numero limitato di individui (ad esempio, un migliaio di elettori) non avremo mai la certezza che i risultati siano effettivamente generalizzabili a tutta la popolazione (elettorale). Sinteticamente, può essere definito come una sorta di “fascia di indeterminatezza” (chiamata in termini statistici “intervallo di confidenza”) entro la quale oscillano i risultati, ottenuti da qualsiasi indagine campionaria, se vogliamo da questi risalire a stime dell’universo. Conoscendo la numerosità campionaria di una rilevazione demoscopica, possiamo automaticamente calcolare la misura dell’errore di campionamento, utilizzando apposite tavole basate su specifici teoremi statistici. L’ampiezza dell’errore di campionamento è strettamente correlata con due elementi: la numerosità campionaria e l’omogeneità dei risultati ottenuti. Vediamo come.

Se da un sondaggio di 1000 casi rileviamo ad esempio che James Joyce è conosciuto dal 15% degli italiani intervistati, è possibile affermare (con una probabilità data di non sbagliare) che il livello di conoscenza dello scrittore è compreso tra il 13% e il 17% dell’universo di riferimento. Se intervistiamo 2000 persone, cioè il doppio, ottenendo supponiamo il medesimo risultato (il 15%), il margine di errore si restringe: possiamo in questo secondo caso affermare cioè che il livello di conoscenza di Joyce è compreso tra il 14% e il 16%. A parità di metodo di rilevazione, per migliorare la precisione delle stime campionarie occorre dunque aumentare l’ampiezza del campione; al crescere del numero dei casi, diminuisce infatti parallelamente l’errore di campionamento.

Veniamo al secondo elemento che determina l’ampiezza dell’errore, cioè il livello di omogeneità delle risposte fornite dagli intervistati (misurabile attraverso il calcolo della “varianza” di una variabile). Se chiediamo ad un campione di 1000 individui la loro opinione su Papa Francesco ed il 99% ne dà un giudizio “ottimo”, l’errore di campionamento per questa risposta sarà uguale a 0,3%; se chiediamo al medesimo campione l’opinione sul Presidente Mattarella e soltanto il 50% ne dà un giudizio “ottimo”, l’errore di campionamento per questa risposta sarà invece più alto, pari al 3,1%. Perché? Perché più le risposte sono omogenee (cioè più è bassa la varianza), più siamo sicuri di non commettere un errore molto ampio nello stimare l’universo, vale a dire nello stimare le risposte di tutti coloro che non abbiamo effettivamente intervistato.

Per chiarire meglio, pensiamo a due amici (Federer e Nadal) che giocano a tennis da anni l’uno contro l’altro. Se nei 1000 incontri giocati tra loro ha vinto 990 volte Federer, avremo molte più probabilità di estrarre a caso, da quei 1000, un incontro dove lui ha vinto, di quante ne avremmo se nei 1000 incontri avessero vinto 500 volte a testa. L’incertezza del risultato (e la disomogeneità delle risposte, vale a dire un’elevata varianza) determina quindi un aumento dell’incertezza delle stime, vale a dire un maggior margine di “imprecisione” quando si vuole estendere la stima campionaria alla popolazione.

In questo caso il ricercatore, se già aveva utilizzato il miglior sistema di campionamento possibile, nulla può fare per diminuire l’errore campionario, non potendo sapere ovviamente in anticipo il livello di omogeneità delle risposte che otterrà. L’unico elemento cui potrà attingere, per stabilire la miglior numerosità campionaria, sarà l’analisi di precedenti indagini sullo stesso tema. Sempre che ve ne siano.

Paolo Natale

*estratto del volume “Sondaggi”, in uscita nel prossimo autunno presso Laterza

Dieci buoni motivi per non credere (troppo) ai sondaggi – 4. Mancanza di opinioni “costanti”

7 Luglio 2022 - di Paolo Natale

In primo pianoSocietà

Nell’epoca in cui regnavano incontrastate le ideologie, esisteva una sorta di pensiero esclusivo, opinioni e atteggiamenti pressoché costanti nell’accostarsi ai fenomeni sociali o politici, guidati dalla propria ideologia, dalla propria visione del mondo, che difficilmente mutavano: parallelamente alla fedeltà di voto, rimaneva fedele anche il modo di vedere le cose, di manifestare la propria adesione quasi incondizionata ad una scelta specifica. Come cantava Giorgio Gaber: “Mio nonno si è scelto una parte che non cambia in ogni momento, voglio dire che c’ha un solo atteggiamento” (Il comportamento, 1976).

Ma poi, con la fine delle ideologie, con la secolarizzazione, con il costante aumento dei mezzi di informazione e di comunicazione (soprattutto sul Web), con il progressivo indebolirsi delle tradizionali agenzie di socializzazione primarie e secondarie (famiglia, scuola, fabbrica, ecc.), con la atomizzazione lavorativa e dei rapporti individuali le cose sono cambiate, e l’uomo è divenuto sempre più simile a ciò che già aveva intuito il sociologo Simmel della Vienna di inizio Novecento. Era l’uomo blasé, l‘uomo metropolitano, costantemente pervaso da mille stimoli diversi, con una identificazione sociale e politica sempre più debole e, viceversa, una identità individuale (l’individuazione) in perenne crescita, quasi ipertrofica, incapace degli antichi sentimenti solidaristici con il gruppo di appartenenza, perché gli antichi gruppi di appartenenza sociale venivano progressivamente ad esaurirsi.

Oggi, la frammentazione delle esperienze e l’atomizzazione sociale rendono l’individuo più debole nelle sue certezze più profonde e propenso a sperimentare identità differenti, in una sequenza sempre più rapida e per forza di cose più superficiale. Con la crisi del concetto di comunità emerge un individualismo sfrenato, dove nessuno è più compagno di strada ma antagonista di ciascuno, da cui guardarsi. La società liquida, secondo Bauman (Vita liquida, Laterza, 2006), genera l’uomo liquido, il cui prototipo è la figura del “turista”, che ha sì una casa propria, ma si sposta temporaneamente alla continua e febbrile ricerca di sensazioni e piaceri inediti. Un altro grande sociologo (Goffman) ha approfondito l’analisi della vita quotidiana attraverso l’interpretazione dell’agire comune con la metafora del teatro, come se l’individuo fosse un attore su un palcoscenico, che recita una pièce teatrale; Goffman intende sottolineare l’esistenza, nelle azioni umane, di una componente legata allo specifico quadro (o “frame”) in cui l’individuo sente di essere inserito. Il suo comportamento appare dunque conseguenza specifica anche della sua percezione del ruolo che sta recitando all’interno di quel particolare quadro.

In quel momento peraltro egli non recita solamente, ma diventa il protagonista dell’opera cui sta prestando la propria interpretazione: quando un individuo è al volante della sua auto, ad esempio, la sua percezione di ciò che lo circonda viene vissuta nelle vesti di automobilista; dal momento in cui parcheggia la sua vettura, egli muta radicalmente, si appresta a vivere la nuova realtà in qualità di pedone, “diventando” quindi un pedone, e interpreta gli eventi secondo quel suo nuovo punto di vista.

È una sorta di sdoppiamento diacronico della personalità; le due personalità convivono nello stesso individuo, venendo attivate solamente in particolari momenti della giornata, a seconda del ruolo che sta giocando nel quadro di riferimento in cui egli è inserito. E lo studioso, per poter conoscere il pensiero dell’individuo analizzato, non può fare a meno di riferirsi ad una delle due differenti personalità.

Se ad esempio il suo interesse consiste nel comprendere il rapporto tra il soggetto e il traffico urbano, il ricercatore deve essere cosciente che questo rapporto potrà essere differente a seconda che il soggetto si proponga come automobilista (e allora vorrà privilegiare facilitazioni viarie) ovvero come pedone (e allora privilegerà la formazione di isole pedonali). Le due personalità convivono nello stesso individuo, contraddicendo l’una i bisogni dell’altra.

Tutte queste trasformazioni della personalità individuale hanno vissuto negli ultimi anni, a causa di pandemie e guerre, un ulteriore shock, con la crescita dell’instabilità anche nella formazione delle opinioni: è cresciuta l’incertezza, l’incostanza, l’alterità anti-establishment e la contraddittorietà dei riscontri demoscopici, rendendo sempre più problematico comprendere quanto siano attendibili le risposte fornite dagli intervistati nei sondaggi odierni.

Paolo Natale

Estratto del volume “Sondaggi”, in uscita nel prossimo autunno presso Laterza

 

Dieci buoni motivi per non credere (troppo) ai sondaggi – 3. Auto-inganno (“self-deception”)

6 Luglio 2022 - di Paolo Natale

In primo pianoSocietà

È una sorta di “ristrutturazione del ricordo” di un evento, effettuato in maniera consapevole o più spesso inconsapevole, sulla base della (mutata) percezione odierna, della attitudine maturata nel presente. Se nel passato avevo votato per una forza politica che oggi non mi piace più, tenderò a “dimenticare” quel voto al fine di mantenere una sorta di coerenza di fondo della mia presente personalità. Un po’ come un ex-innamorato che nel passato aveva giurato amore eterno all’amata, ma poi finito l’amore cancella tutti i ricordi positivi che ha vissuto con lei, per non soffrire più e per percorrere altre strade amorose (come nel film “Se mi lasci ti cancello”, con Jim Carrey).

Capita molto più spesso di quanto si pensi ma, fortunatamente, è anche uno dei pochi bias che possono venir facilmente tracciati, sia a livello individuale che a quello complessivo. Intervistando infatti periodicamente le stesse persone, in un panel che copre un lungo periodo temporale, è facilmente possibile individuare il momento preciso in cui un intervistato ristruttura il suo ricordo, modificando nelle sue risposte l’eventuale comportamento di voto passato, se oggi non è più sentito come suo.

A livello collettivo, qualora la percentuale cumulata delle dichiarazioni di voto passato per un certo partito fosse significativamente differente, cioè inferiore, alla percentuale effettivamente ottenuta da quel partito, avremo la misura esatta del livello di auto-inganno del complesso della popolazione intervistata. È accaduto molto spesso nel passato, in Italia, in particolare con Berlusconi e con Renzi: terminato il periodo di “luna di miele” con l’elettorato, in una fase in cui i due leader erano caduti in disgrazia presso l’opinione pubblica, si dimezzava quasi la percentuale di elettori che si “ricordavano” di averli votati. Nei sondaggi post-elettorali, la ristrutturazione del ricordo è per certi versi un comportamento opposto al citato effetto bandwagon; mentre in quest’ultima situazione si sale metaforicamente sul carro del vincitore, nel caso dell’auto-inganno (più o meno conscio) si tende a scendere da quel carro in maniera numericamente significativa.

Paolo Natale

Estratto del volume “Sondaggi”, in uscita nel prossimo autunno presso Laterza

image_print
1 2 3 4 8
© Copyright Fondazione Hume - Tutti i diritti riservati - Privacy Policy