Perché la sinistra è in costante declino?

È dunque successo quel che doveva succedere: per una volta i tanto vituperati sondaggi ci avevano visto giusto, con stime che non si distaccavano più di tanto dai risultati finali delle consultazioni di domenica 25, se non per una leggera sopravvalutazione demoscopica del consenso leghista. E la vittoria del centro-destra (anzi, del destra-centro) è giunta in maniera dirompente come era da mesi chiaramente annunciato. E, soprattutto, è arrivato quell’elevato consenso per Giorgia Meloni e il suo Fratelli d’Italia che pare rasentare l’incredibile, visti i suoi numeri di partenza di soli un paio d’anni fa.

Dal ridotto 4% del 2018, soltanto di poco aumentato alle Europee dell’anno successivo (6%), il partito ha visto un incremento di ben 20 punti nel giro di pochissimo tempo, quel tempo coincidente giusto con il periodo in cui stata, in solitaria, all’opposizione del governo Draghi. È dunque questo il motivo di quell’incremento, la sua opposizione al governo di larghe intese?

C’è qualcosa di strano, forse inspiegabile, in quanto è accaduto. Il governo Draghi, e ancor più lo stesso premier, godeva di una fiducia mai così elevata da quando le rilevazioni certificano il livello di gradimento degli esecutivi: perfino nell’ultima settimana prima del voto, i dati parlavano di oltre il 60% degli italiani che dava una valutazione positiva del governo e di quasi il 70% del Presidente del Consiglio.

Pochi giorni dopo, gli elettori che si sono recati alle urne hanno decretato il chiaro successo dei partiti che o lo hanno contrastato fin dall’inizio (come appunto Fratelli d’Italia) oppure hanno decretato la sua prematura scomparsa (Forza Italia, Lega e Movimento 5 stelle). Queste 4 forze politiche sono state infatti votate da oltre il 60% degli elettori, contro un misero 30% di chi ha sostenuto Draghi fino alla fine, sperando in un suo ritorno alla cabina di comando.

Una sorta di schizofrenia che alberga nella mente del cittadino-elettore o, forse, la prova più evidente di quanto sosteneva il sociologo Goffman: il comportamento, l’opinione di un attore sociale dipende dal palcoscenico, dal frame in cui si sente inserito. Quando mi sento un cittadino, mi fido del tecnico che bene governa il futuro del mio paese; quando mi sento elettore, voto la coalizione che più rappresenta i miei bisogni politici. Senza contraddizioni, soltanto risposte diverse a diversi scenari di riferimento.

E la destra in Italia, come nel resto del mondo occidentale (buon’ultima la Svezia, patria della socialdemocrazia), è destinata ad avere sempre più successo, poiché ha l’appoggio prevalente (sebbene non esclusivo) di quella parte sempre più crescente di elettorato che il politologo Kriesi chiama “i perdenti della globalizzazione”, coloro cioè che non hanno sufficienti strumenti per far fronte agli odierni problemi sociali, occupazionali ed economici. I ceti bassi o medio-bassi, dove le crisi sono più sentite, gli operai nelle piccole aziende, i non-garantiti, che temono quindi le conseguenze della globalizzazione, della immigrazione, del depauperamento progressivo della propria esistenza. Le parole della destra, che cerca di porre un freno ai grandi rivolgimenti mondiali, paiono a questa parte di elettorato le più efficaci per dare maggiore sicurezzacontro il “disordine” provocato da questi cambiamenti epocali; un po’ ciò che è accaduto con Trump, Bolzonaroe Orban.

Al contrario, e con un solo paio di eccezioni, i collegi vinti dal centro-sinistra corrispondono, sia alla camera che al senato, con le città medio-grandi: Torino, Milano, Bologna, Firenze, Roma, Modena e Reggio Emilia. Èormai noto da almeno un decennio, se non di più, come queste siano le aree territoriali dove la sinistra riesce ad intercettare meglio gli umori e le attitudini degli elettori, che hanno una maggiore capacità di fronteggiare le paure e le minacce che le società avanzate pone loro dinanzi. Sono i giovani istruiti, i cittadini più benestanti, con un lavoro relativamente più stabile. È il profilo del Partito Democratico, quello che Luca Ricolfi definisce il “partito radicale di massa”, la forza politica che vincerebbe in Italia se votassero solo i laureati.

Domani vedremo meglio quali e quanti spostamenti di voto sono avvenuti nell’elettorato italiano negli ultimiquattro anni, fino a giungere alla situazione odierna, e scopriremo un paio di cose sorprendenti. Cercherò poi di rispondere ad una domanda cruciale: quanto tempo riuscirà a durare il futuro governo Meloni?

Paolo Natale




Dieci buoni motivi per non credere (troppo) ai sondaggi – 10. Analisi ex-post

Se i precedenti nove tipi di distorsioni si riferiscono alle procedure e alla corretta formulazione del questionario utilizzato in un sondaggio, in quest’ultimo bias diventa rilevante il ruolo del ricercatore, nel momento in cui compie l’analisi dei dati raccolti e ne comunica i risultati. È proprio la scelta delle modalità attraverso cui analizza le risposte che gli giungono dalle interviste a diventare dirimente, poiché le sue scelte possono far mutare completamente il senso e la direzione dei risultati che vengono successivamente comunicati ai media.

Per capire la portata delle conseguenze che possono avere le scelte del ricercatore, prendiamo in considerazione una delle stime che vengono realizzate e comunicate più frequentemente: la popolarità o la fiducia in un leader politico, ovvero nel governo o nel premier. Esistono ovviamente molti modi per “misurare” la popolarità, ad esempio, di un capo dell’esecutivo e, come si è detto nel precedente punto 8 (l’errore di indicazione), non potremo mai sapere quale sia la modalità migliore da proporre agli intervistati. Nel nostro paese molti Istituti di ricerca utilizzano a questo scopo la ben nota “pagella”, con la seguente formulazione (o altre simili): “Quanta fiducia ha nel Presidente del Consiglio, su una scala da 1 a 10?”.

La modalità più diffusa per analizzare e comunicare le risposte a questa domanda è quella di prendere in considerazione la percentuale delle valutazioni positive, da 6 a 10 dunque. È una scelta corretta? Pensiamo ad una situazione simile, o parallela: un fidanzato chiede alla fidanzata quanta fiducia ha in lui o quanto lo ama, da 1 a 10, e la fidanzata risponde 6. Un motivo per lasciarla immediatamente, un amore non può rimanere in piedi con un livello attrattivo così contenuto. Anche un 7 non darebbe forse la possibilità di costruirsi un futuro insieme. I voti realmente positivi, che danno una buona speranza per il proseguimento del rapporto, vanno da 8 a 10, questo è certo.

La scelta cruciale anche per il ricercatore riguarda dunque quale sarà il voto minimo da prendere in considerazione, sei sette o otto, con conseguenze evidenti sul risultato che viene comunicato ai media. In un recente sondaggio su Mario Draghi, utilizzando tutti i voti positivi, il livello di fiducia degli italiani nei suoi confronti risultava pari al 60%; considerando i voti da 7 a 10, la fiducia scendeva al 50%, mentre prendendo come base solo le valutazioni molto positive (da 8 a 10), si arrivava appena al 38%. Nessuna scelta è a priori scorretta, ma è immediatamente evidente che se si vuole sottolineare come Draghi non sia abbastanza apprezzato dalla popolazione, si opterà per la scelta più restrittiva, laddove si terrà in considerazione quella più ampia (tutti i voti positivi) volendo indicare al contrario un’ampia fiducia nel premier da parte degli italiani.

La discrezionalità della scelta del sondaggista appare dunque evidente, e non può venir superata dalla possibile comparazione con altri leader politici, come accade nelle analisi che riguardano la popolarità di questi ultimi, poiché il Presidente del Consiglio è uno solo e, al massimo, può venir confrontato con i suoi predecessori, cosa che peraltro non viene fatta quasi mai. Una soluzione che rende accettabile la scelta adottata (quella consueta è come detto di considerare tutte le valutazioni positive) consiste nel presentare, accanto al dato attuale, anche il trend della fiducia in lui nei mesi precedenti, per comprendere quanto meno se la sua popolarità sia in crescita o in calo.

Ma forse la scelta in assoluto ottimale sarebbe quella di suddividere i voti positivi in due fasce, quella molto positiva (da 7 a 10) e quella appena sufficiente (il voto pari a 6). Se la percentuale dei “6” fosse molto elevata, risulterebbe immediatamente evidente come quel personaggio venga valutato, in qualche modo, solo come “il minore dei mali”, ma senza un grande trasporto.

Nella presentazione degli esiti del sondaggio, infine, anche in questo frangente è consigliabile esplicitare sia il testo esatto della domanda posta che il tipo di elaborazione che è stato effettuato per giungere ai risultati esposti.

Paolo Natale

*estratto del volume “Sondaggi”, in uscita nel prossimo autunno presso Laterza




Dieci buoni motivi per non credere (troppo) ai sondaggi – 9. Il “wording”

Fa riferimento alle “parole” che si utilizzano nella formulazione delle domande di un questionario: la scelta di queste parole può determinare risultati di un sondaggio completamente diversi gli uni dagli altri. Uno dei primi e più famosi casi “esemplari” della distorsione introdotta dal wording, della possibile ambiguità cioè nel registrare le opinioni della popolazione, ci riporta a quanto avveniva negli USA durante la guerra del Vietnam (un esempio per certi versi simile a quanto accade oggi rispetto al conflitto Russia-Ucraina): i quotidiani pro-intervento pubblicavano sondaggi in cui emergeva come la maggioranza degli americani fosse favorevole a “proteggere il popolo vietnamita dall’influenza sovietica”; i quotidiani anti-interventisti pubblicavano viceversa sondaggi dove la maggioranza si dichiarava contraria a “mandare i propri figli a combattere e a morire in Vietnam”. Ma tutti i giornali titolavano semplicemente: “Gli americani sono a favore (oppure contro) il ritiro delle truppe”.

Attraverso la scelta di formulare una domanda in un certo modo, usando determinate parole, si potrebbe facilmente manipolare l’opinione pubblica, facendo intuire come la popolazione sia contraria, oppure favorevole, ad un aspetto della vita sociale o ad un avvenimento pubblico. Come dire: scegliendo le parole “giuste”, posso far dire al mio campione di intervistati, in certa misura, ciò che voglio che mi dica.

Ambiguità di questo genere possono avere conseguenze negative per un altro degli scopi principali per cui si effettua un sondaggio, quello cioè di rilevare la diffusione di uno specifico atteggiamento, non altrimenti quantificabile: il tipo di domanda che viene rivolta agli intervistati, al fine di “misurare” questo atteggiamento, può infatti dar luogo a risultati a volte speculari. Il seguente breve esempio, tratto da due sondaggi realmente effettuati, chiarisce bene i termini del problema.

L’obiettivo delle indagini era il medesimo: quantificare il livello di xenofobia presente nel nostro paese. Nel primo sondaggio, si chiedeva agli intervistati se li disturbasse la presenza di troppi immigrati in Italia: il 70% rispose affermativamente. Nel secondo sondaggio, venne invece chiesto agli intervistati se potessero mai prendere in considerazione la possibilità di sposare una persona immigrata: in questo caso il 66% rispose affermativamente.

Due risposte che, ad una lettura superficiale, sembrano rilevare due realtà antitetiche. Se il mio obiettivo è capire quanto sono xenofobi gli italiani, utilizzando la prima formulazione dovrei affermare che sono molto xenofobi, utilizzando la seconda formulazione dovrei giungere ad opposte conclusioni.

Nessuna delle due è di per sé scorretta; enfatizzano solamente due modalità (auto)percettive differenti: la prima ha a che vedere con la dimensione macro (collettiva), la seconda con quella micro (individuale). Come dire: il fenomeno migratorio appare socialmente disturbante, mette in crisi alcune delle mie sicurezze future; ma una singola persona immigrata, se mi piacesse, potrebbe nel caso anche diventare mio marito, o mia moglie.

Come decidere allora se è preferibile utilizzare la prima o la seconda formulazione? Non esistono criteri oggettivi. Dipende in parte dalla sensibilità del ricercatore, in parte dalle risorse a disposizione e in (larga) parte dall’obiettivo del sondaggio. A volte, purtroppo, “manipolativo”. Se il committente è un partito che vuole attuare una politica di rigidità verso l’immigrazione, sarà infatti più favorevole a rendere pubblici i risultati della prima domanda; se al contrario è un partito propenso ad una politica di apertura, renderà più facilmente pubblici i risultati della seconda domanda.

Al di là delle possibili manipolazioni, e considerando le finalità conoscitive di un sondaggio, è auspicabile che il buon ricercatore espliciti il testo esatto della domanda che è stata posta, in modo tale che si renda chiaro al lettore di cosa stiamo esattamente parlando, quando riportiamo i risultati del sondaggio.

Paolo Natale

*estratto del volume “Sondaggi”, in uscita nel prossimo autunno presso Laterza




Dieci buoni motivi per non credere (troppo) ai sondaggi – 8. Errore di indicazione

Questo è il terzo dei classici errori “tecnici” presenti in ogni tipo di sondaggio, unitamente ai già ricordati errore di campionamento e di rilevazione, e si riferisce al momento in cui il ricercatore deve cercare e trovare il miglior modo per misurare un concetto con un alto livello di astrazione, che non possiede cioè una propria unità di misura. Mentre per molte proprietà si può procedere facilmente alla loro identificazione tramite una classificazione (il partito votato, ad esempio), un conteggio (il numero di libri letti annualmente) o una misurazione (il tempo impiegato per recarsi sul luogo di lavoro), per quelle che più interessano alla ricerca sociale o politica le difficoltà per registrarle sono infinitamente maggiori. Per intendere appieno la difficoltà di questo tipo di “misurazione”, occorre sottolineare due aspetti.

Il primo è che i fenomeni sociali, gli atteggiamenti e le opinioni, molto difficilmente assumono la forma di fenomeni misurabili o classificabili: ne abbiamo citate alcune (l’età, il reddito, rilevazioni basate sul tempo, o sul conteggio, il titolo di studio, il partito votato), che rimangono comunque limitate. I fenomeni demarcati da un’unità di misura naturale, pur essendo ottimali dal punto di vista delle possibilità di analisi, sono nella realtà abbastanza rari.

Il secondo è che il ricercatore sociale è interessato proprio a quei fenomeni che difficilmente si manifestano in forme naturalmente misurabili; il grado di soddisfazione per la democrazia, il livello socio-economico di un paese, il grado di simpatia per un personaggio politico, il tasso di xenofobia degli abitanti del nostro paese, il grado di fiducia in una istituzione: tutti questi atteggiamenti ed opinioni, il cui significato è per ognuno di noi perfettamente comprensibile, non possiedono alcuna specifica modalità “naturale” per poter essere misurati. Non disponiamo di un’unità di misura condivisa, né naturalmente né convenzionalmente, per quelle proprietà (quei concetti) che si situano ad un livello di astrazione molto elevato.

Per ovviare a questo “deficit di misurabilità” si ricorre quindi a tecniche di rilevazione che, utilizzando unità di misura certamente arbitrarie ma omogenee all’interno della singola indagine, permettono di ottenere risultati certo comprensibili ma, in qualche modo, contestabili. Vediamo perché.

L’esempio più classico di queste misurazioni “arbitrarie”, divenuto peraltro nel tempo uno standard riconosciuto di misura, è quello del quoziente di intelligenza (il Q.I.), che si può a buon diritto definire il prototipo di questo procedimento: introdotto all’inizio del secolo scorso in ambito psicometrico, esso si basa su una serie di test la cui sommatoria (o il suo indice sintetico) fornisce un punteggio che misura una proprietà astratta, il livello di intelligenza di un individuo, altrimenti non quantificabile. Non tutte le unità di misura arbitrarie hanno avuto la fortuna di divenire uno standard universalmente accettato; sono anzi molte quelle che presentano un tempo di vita limitato unicamente al breve spazio dell’indagine contingente.

Ma anche in questo caso, ormai riconosciuto come una sorta di standard di riferimento, come possiamo essere certi che sia questa la procedura più corretta per “misurare” l’intelligenza di un individuo? È possibile, a livello teorico, pensare che esistano modalità migliori per definire il grado intellettivo delle persone, e alcuni psicologi si sono cimentati in questo campo, ottenendo anche buoni risultati. Resta però costantemente presente il dubbio di stare commettendo un errore nella procedura utilizzata, perché non sapremo mai quale sia il modo migliore per misurare qualcosa di immisurabile, di molto astratto. Sappiamo dunque che potremmo sbagliarci, benché non potremo mai valutare esattamente quale sia il livello, la portata di questo errore di indicazione.

Ciononostante, tutte queste procedure rimangono valide e spesso indispensabili per poter registrare gli atteggiamenti degli intervistati o le differenze presenti nei diversi casi dell’analisi. Queste diverse modalità di rilevazione prendono il nome di tecnica delle scale, ormai entrate nel bagaglio metodologico di gran parte delle ricerche e delle rilevazioni demoscopiche. Non occorre sottolineare il fatto che, considerata l’estrema arbitrarietà del procedimento di costruzione di questi indici, sarà in questo frangente ancor più importante che il ricercatore espliciti il percorso utilizzato in maniera particolarizzata, attraverso una dettagliata “definizione operativa”, vale a dire le regole che abbiamo seguito per misurare questi concetti con alto livello di astrazione.

Paolo Natale

estratto del volume “Sondaggi”, in uscita nel prossimo autunno presso Laterza




Dieci buoni motivi per non credere (troppo) ai sondaggi – 6. Errore di copertura e 7. Errore di mancata risposta

I due tipi di distorsione che vedremo ora fanno entrambi parte del cosiddetto errore di rilevazione; al contrario dell’errore di campionamento, sempre presente ma calcolabile, questo tipo di errore potrebbe teoricamente non esserci (peraltro solo in teoria…) ma non è comunque mai calcolabile: non sappiamo dunque di quanto sbagliamo nella generalizzazione delle nostre stime.

L’errore di copertura si verifica in diverse fasi dell’indagine e per diversi motivi. Può essere dovuto alla mancanza di un elenco completo dell’universo dei possibili intervistati, da cui estrarre il campione, alla impossibilità di reperimento di una quota significativa di individui campionati o al loro rifiuto preventivo di rispondere alle domande. Nel primo caso nulla si può fare, mentre negli altri due è possibile ovviare al problema estraendo preventivamente ulteriori campioni, chiamati “di riserva”, che prenderanno il posto dei soggetti irreperibili, sostituendoli quindi con nuovi individui reperibili e/o disponibili a collaborare. Ma è ovvio che così facendo introduciamo una (possibile) fonte di distorsione a volte piuttosto grave: come possiamo sapere se l’individuo sostituito risponderebbe in maniera simile al suo sostituto? Solitamente, quando si pubblicano i risultati di un sondaggio, in caratteri molto piccoli, a volte quasi invisibili, viene inserito anche il dato relativo al numero delle sostituzioni, che molto spesso sono almeno tre-quattro volte più numerose delle interviste effettivamente effettuate, come nel caso (tipico) qui riportato.

Indagine condotta con tecnica mista CATI-CAMI-CAWI su un campione di 1200 soggetti maggiorenni residenti in Italia (4566 non rispondenti) il 7 giugno 2022.

Il che significa molto semplicemente che l’Istituto di ricerca è riuscito a intervistare 1200 soggetti facendo quasi 6000 tentativi! Quei quasi cinquemila individui irreperibili o non disponibili avrebbero dato risposte simili? Può darsi di sì o può darsi di no; non lo sappiamo né potremo mai saperlo.

 

L’errore di mancata risposta si verifica invece quando una parte di coloro che vengono intervistati non vogliono rispondere ad alcune delle domande del questionario, oppure si dichiarano indecisi sulla risposta da fornire oppure ancora non sanno semplicemente cosa rispondere. Prendiamo ad esempio il caso più ricorrente, un sondaggio cioè sulle intenzioni di voto, con una numerosità campionaria di 800 casi: negli ultimi mesi, il numero di intervistati che si dichiara indeciso, che non vuole rispondere o che opta per l’astensione risulta spesso pari se non superiore al 40% del campione. Una parte di loro, diciamo intorno al 25%, non si recherà effettivamente alle urne, ma il restante 15% ci andrà e avrà un certo comportamento di voto, che potrebbe ribaltare completamente i risultati che ci vengono proposti. Come possiamo sapere se chi oggi non indica la propria preferenza elettorale si distribuirà, il giorno delle votazioni, esattamente come chi l’ha invece indicata? Ma non solo. Il problema ulteriore è che le stime che noi leggiamo si riferiscono non più a 800, ma soltanto a 480 individui (con un errore di campionamento – peraltro – molto superiore a quello indicato), che ci dicono siano rappresentativi della popolazione elettorale italiana. Saranno davvero rappresentativi di tutti gli elettori oppure soltanto di quelli più sicuri del proprio voto e/o propensi a dichiararlo?

Paolo Natale

*estratto del volume “Sondaggi”, in uscita nel prossimo autunno presso Laterza