Hume PageHume Page

La “censura privata” dei contenuti politici sui social network tra mito sociale e realtà giuridica

6 Luglio 2020 - di Mark Bosshard

DirittoIn primo pianoSocietà

La cronaca si occupa sempre più spesso di casi di cosiddetta “censura privata” di contenuti caricati da utenti sui social network (in particolare la piattaforma YouTube parrebbe essere divenuta parecchio “attiva” in questo senso negli ultimi tempi). Sebbene gli episodi che salgono alla ribalta della cronaca siano essenzialmente solo quelli che riguardano contenuti lato sensu politici e/o quelli caricati da utenti che gravitano a vario titolo intorno al mondo dell’informazione o del dibattuto politico e culturale, in realtà il fenomeno della censura di massa di contenuti che – per varie ragioni – non risultano graditi alle piattaforme social ha dimensioni ben più ampie, coinvolgendo diverse migliaia di utenti e contenuti su base giornaliera e a livello planetario. Le polemiche riguardano peraltro quasi sempre i casi – piuttosto frequenti – in cui vengono oscurati dai social network contenuti che esprimono visioni e concetti considerati “non allineati” all’opinione dominante, ma sarebbe forse meglio dire a quella dei gruppi “più rumorosi” della community, dando luogo in tal modo ad una singolare forma di “democrazia contestativa” in cui i gruppi che protestano di più – per questa sola ragione – finiscono in via di fatto per negare, con l’avallo di policy compiacenti predisposte dalle piattaforme, il diritto di tribuna alla massa silenziosa di chi si limita a manifestare opinioni differenti mettendo in rete dei contenuti, ma senza pretendere che vengano oscurati quelli di tenore differente. Si tratta – come si diceva – di una tendenza che appare assai consolidata oltre oceano, ma che – non si sa se per una modifica delle policy delle piattaforme o per un maggiore attivismo dei “leoni da tastiera” del vecchio continente – sta iniziando a prendere piede anche in Europa.

Quel che in compenso è certo è che i social network e la loro censura privata rappresentano oggi una delle più potenti armi a supporto del discorso politicamente corretto e contro la diffusione di qualunque idea alternativa a quelle che quel discorso ammette. Può dunque essere il caso di interrogarsi sulle cause di questa situazione, per capire se e in che modo tale fenomeno merita attenzione e – se del caso – correzione.

Quanto alle ragioni dell’impennata della censura social, alcuni sostengono apertamente la teoria del complotto (che a essere sinceri come complotto sarebbe stato organizzato piuttosto maldestramente, visto che i presunti destinatari se ne sono accorti in fretta): secondo questa linea di pensiero, i grandi social network avrebbero stretto un patto con il mondo liberal americano e progressista europeo (a sua volta sostenuto dalla finanza speculativa internazionale) teso ad ostacolare la diffusione di notizie e opinioni non gradite a quegli ambienti. Si tratta di un discorso analogo a quello che viene svolto nei confronti dei mass media tradizionali, da sempre accusati di portare avanti una agenda coerente con gli interessi di controlla i pacchetti di maggioranza dei rispettivi editori e del discorso politico che questi soggetti appoggiano. Invero non saprei dire se un patto ci sia, ma – alla luce dei fatti – un certo allineamento è difficile da negare. Per usare una terminologia antitrust ci si potrebbe limitare a ipotizzare che tra certi ambienti politici ed economici e le grandi piattaforme social esiste qualcosa che potrebbe collocarsi in qualche punto intermedio tra una pratica concordata e il parallelismo consapevole. Sennonché qui non stiamo parlando di antitrust e dunque i patti non contano. Qui parliamo di pubblica opinione e di informazione.

Proprio per questa ragione occorre sottolineare prima di tutto la natura ambigua – o, forse meglio, anfibia – delle piattaforma social, che non sono veri e propri prodotti editoriali o informativi, ma gli somigliano da vicino. L’editore, così come chi fa informazione, pubblica infatti contenuti propri e se ne assume di conseguenza la piena responsabilità, la piattaforma social pubblica invece contenuti altrui (che possono essere sia notizie che opinioni) e dunque – a rigore – non dovrebbe assumersene la responsabilità. Ma è esattamente qui che occorre andare subito al nocciolo della questione, evitando comodi nominalismi.

Nella misura in cui la piattaforma social non si limita a mettere a disposizione uno spazio vuoto da riempire con notizie e opinioni, ma rivendica il diritto di selezionare alcuni contenuti degli utenti per escluderli dalla pubblicazione e lo fa non basandosi sul semplice criterio della contrarietà alla legge del contenuto, di fatto esprime una sua “linea editoriale e/o informativa”, appunto basata sui criteri che sceglie di adottare per selezionare i contenuti degli utenti che devono essere “oscurati” e quelli che invece possono essere diffusi. Dunque è vero che la piattaforma social non è un editore in senso stretto, ma altrettanto vero è che – se adotta sistemi di censura privata sui contenuti che ospita che le consentono di censurare ultra vires rispetto ai divieti di legge (il che accade anche quando attua quei divieti prima che lo facciano le istituzioni pubbliche competenti) – si comporta in via di fatto come fa un editore, selezionando le opinioni e i fatti che vuol far giungere al pubblico. Il che solleva inevitabilmente il problema dell’eventuale estensione anche a questi soggetti di alcuni principi – per dirne solo due: pluralità e trasparenza – che valgono per l’editoria e l’informazione. Il fatto poi che i social network concorrano alla formazione della pubblica opinione (anzi, abbiamo ormai un ruolo assai rilevante in tal senso) pone l’ulteriore questione della possibile applicazione dei principi costituzionali in tema di pluralismo e libertà di manifestazione del pensiero a questo genere di soggetti.

Questo spiega quanto superficiale sia la replica comunemente sollevata dai “tifosi” della censura privata praticata dai social, i quali giustificano il fenomeno limitandosi a sostenere che un’impresa privata può far quel che vuole coi contenuti che ospita gratuitamente. Se tuttavia fosse così, probabilmente, sarebbe incostituzionale la legge sulla responsabilità del direttore di un giornale, quella che impone alle testate di registrarsi al Tribunale e qualche perplessità desterebbe pure tutto l’imponente complesso di norme a presidio della pluralità e dell’indipendenza dell’informazione. Liquidare insomma la questione della censura privata come semplice questione contrattuale è solo un comodo espediente per lasciare le cose come sono (espediente che non a caso viene largamente utilizzato da quelli che di questo genere di censura beneficiano).

D’altro canto non si può ignorare che i social network hanno una buona ed evidente ragione per “censurare”, considerando che – quanto meno in Italia – potrebbero essere considerati responsabili insieme all’utente per i contenuti illeciti che, nonostante siano stati segnalati come tali, non sono stati rimossi tempestivamente dalla piattaforma. Questa forma di responsabilità “in vigilando” suggerisce infatti ai gestori di social network di adottare un metro assai rigoroso nel selezionare i contenuti da rimuovere. Un rigore che dipende tuttavia da altri tre fattori: il primo è il proliferare di leggi che – sotto la bandiera della lotta alle fake news e/o all’hate speech e/o alla discriminazione ovvero ad altre variamente nobili cause – pongono divieti tanto vaghi e ampi da poter essere interpretati in modo tale da restringere gravemente sia la libertà di manifestazione del pensiero sia, se non soprattutto, la pluralità delle opinioni. Il secondo fattore è rappresentato da una certa tendenza dei tribunali o dalle autorità di vigilanza pubbliche a interpretare in modo assai ampio i divieti di cui sopra. Il terzo – che invero a mio avviso rappresenta anche una delle cause del secondo – è il ben noto attivismo (condito da una altrettanto ben nota cieca intolleranza) dei cosiddetti social justice warrior che pullulano sulla rete, i quali finiscono per monopolizzare l’opinione pubblica, sostenuti quasi sempre in questa azione dalla propaganda di forze politiche sedicenti liberal o progressiste e dai mezzi di informazione tradizionali. Questi quattro fattori – responsabilità in vigilando del social, legislazione ampia e vaga potenzialmente tale da restringere la libertà di manifestazione del pensiero in nome di nobili ideali applicata da magistrature assai zelanti e, per finire, conclamata intolleranza di una certa parte dell’opinione pubblica e dell’informazione mainstream – crea il cocktail che porta al risultato di una massiccia e ripetuta cancellazione di contenuti sui social network che quasi sempre va a colpire contenuti e soggetti che non sono allineati alle posizioni definite solitamente come politicamente corrette.

Come affrontare dunque il problema? Anzitutto non negando che esiste. Dire in modo pacato cose anche molto sgradevoli per qualcuno o poco gradite ai poteri politici o economici è infatti un diritto costituzionalmente garantito. E questo è bene ricordarlo in particolare a tutti i benpensanti che vorrebbero rendere migliore il mondo (ovviamente secondo il loro metro di “meglio”) mettendo zitto chi la pensa diversamente da loro, solo perché è brutto e cattivo, anzi – siccome dire brutto e cattivo è poco politicamente corretto – perché le sue idee sono “impresentabili”. E’ in particolare bene ricordare alle anime belle che nessuna rivoluzione o progresso culturale (e in particolare proprio quelle che hanno creato la società che consente oggi ai benpensanti di benpensare) sarebbero mai stati possibili se qualcuno non avesse iniziato a diffondere idee eterodosse e che, al tempo, apparivano sgradevoli se non addirittura scandalose. Ferma dunque la continenza della forma e delle modalità espressive (e fermo il diritto di satira), occorre ribadire con forza che qualunque opinione – per quanto sgradevole o poco condivisibile sia il suo contenuto – deve poter trovare posto nel dibattito pubblico, a patto che sia esposta in forme civili. Del resto, se si ritiene ammissibile che uno scienziato sostenga pubblicamente che dovrebbe essere reso lecito l’infanticidio nei primi momenti di vita (ribattezzato per l’occasione come “aborto post parto”) in quanto il bambino appena nato non ha ancora maturato una coscienza di sé, dunque non soffrirebbe per l’evento della sua morte; se si ammette questo – dicevo – credo si possa ammettere anche parecchio di quel che scatena i pruriti censori dei benpensanti. Tanto premesso, veniamo alle questioni pratiche.

Un primo passo per risolvere il problema potrebbe essere quello di imporre ai social network degli obblighi di trasparenza relativamente agli specifici criteri adottati per operare le selezioni dei contenuti da oscurare. Siccome peraltro si tratta quasi sempre di criteri automatizzati (ossia di algoritmi che lavorano in automatico sui dati), occorre che la pubblica opinione sappia come gli algoritmi trattano le informazioni e, soprattutto, quali sono i “trigger” che fanno scattare l’oscuramento. Va detto che imporre simili obblighi espone i social all’attività dei cosiddetti troll (ossia di soggetti che, sfruttando gli algoritmi, organizzano campagne di segnalazione volte a far sì che il sistema cancelli determinati contenuti). Però è anche vero che i colossi del social online hanno certamente le risorse per elaborare algoritmi a prova di troll e, forse anche meglio, per lasciare a un essere umano la verifica ultima e diretta del contenuto oggetto di accusa da parte della community, sulla base di criteri scritti chiari nero su bianco e che il verificatore in carne ed ossa deve applicare. Si badi infatti che qui nessuno vuole negare a Facebook il diritto di scegliere criteri di censura liberal o a YouTube il diritto di censurare sulla base di principi di matrice conservatrice: l’importante è che i social dicano chiaro quali sono i criteri – anche biased nei confronti di una certa opinione politica o culturale – che vogliono adottare nella loro opera di censura privata.

Ma tutto questo probabilmente non risolverebbe a mio avviso il problema, nella misura in cui non impedirebbe ai social di sottrarsi al rischio di subire – per effetto dell’irrefrenabile attivismo dei troll ideologicamente orientati (specie di associazioni e comitati vari per la promozione dei diritti di questo o di quello) – azioni giudiziarie o procedure amministrative in applicazione delle leggi censorie di cui si è detto prima. D’altro canto è irrealistico pensare – visti i tempi che corrono e il dilagare senza freni dell’isteria politicamente corretta – che a breve i governi e i legislatori possano abrogare o attenuate le leggi censorie che creano i presupposti del problema della censura privata praticata dalle piattaforme social. La soluzione va per forza cercata altrove, ossia – ad avviso di chi scrive – in una differente ripartizione della responsabilità tra social network e utente in relazione ai contenuti postati da quest’ultimo che – segnalati ma non rimossi dal social network – siano poi effettivamente riconosciuti come illeciti dagli enti preposti alla verifica della loro illiceità.

L’unica soluzione del problema attualmente praticabile passa infatti a mio parere per una eliminazione della responsabilità in vigilando dei social network per mancata immediata rimozione dalla rete di un contenuto segnalato al provider anche quando quel contenuto, in seguito, viene dichiarato illecito da un giudice o da un ente amministrativo. Questa responsabilità andrebbe espressamente esclusa per legge, a fronte della possibilità di una identificazione ragionevolmente sicura dell’identità reale degli utenti. Per iscriversi a facebook – tanto per fare un esempio – si dovrebbe insomma inviare una copia di documento di identità e fare una breve intervista online (in videoconferenza) per verificare che l’utente collegato corrisponde al documento. Si noti che per certi particolari servizi online la cosa viene già fatta da diverse imprese e non presenta particolari problemi tecnici. Per funzionare davvero, però, la cosa dovrebbe funzionare su entrambi i lati del rapporto tra utente e social network: da un lato, le piattaforma social avrebbe il diritto di chiedere in sede di iscrizione una identificazione sicura all’utente, beneficiando – se identifica l’utente – dell’esclusione della sua corresponsabilità per i contenuti postati da quell’utente, oppure non chiedere nulla (dunque di fatto accettando utenti “non verificati”), assumendo però in quel caso la responsabilità in vigilando. D’altro canto lo stesso utente dovrebbe a sua volta avere un vero e proprio diritto soggettivo a farsi identificare con sicurezza dal social network, al fine di sottrarsi alla censura preventiva da quest’ultimo in caso di segnalazione.

In questo modo, quando si tratta di contenuto proveniente da un utente “identificato”, di fronte alla segnalazione di un contenuto ritenuto illecito proveniente dalla community e che fa scattare i “trigger” previsti dal sistema, la piattaforma social non potrebbe rimuovere il contenuto, ma avrebbe l’obbligo di comunicare direttamente a tutti i soggetti segnalanti che l’utente che ha postato il contenuto è un utente identificato e che dunque – in caso di successiva azione penale o di procedura amministrativa – la stessa piattaforma comunicherà all’autorità procedente l’identità reale dell’utente. Per le azioni civili contro l’utente (che richiedono una conoscenza previa della sua identità) si potrebbe invece prevedere un obbligo per la piattaforma di approntare una procedura grazie alla quale il legale incaricato dell’azione civile contro chi ha messo online un contenuto segnalato – dichiarando che intende agire contro l’utente e indicando sia il contenuto che considera illecito, sia la precedente segnalazione, sia infine il soggetto per conto del quale il legale agisce – può farsi comunicare da parte del social network l’identità reale dell’utente.

Il sistema in questione si fonda insomma sul principio secondo cui entrambi i soggetti – utente e gestore della piattaforma social – che, in via di fatto, concorrono alla diffusione di un contenuto online hanno, ciascuno, il diritto – a prescindere dalla volontà dell’altro – di scegliere se assumersi o meno la responsabilità (o, nel caso del social network la corresponsabilità) dei contenti pubblicati. Questa opzione consente alle piattaforme di social network di diventare finalmente – vuoi per loro scelta o vuoi per decisione degli utenti – quel che sono nate per essere, ossia altrettanti semplici “spazi virtuali” dove altri soggetti comunicano pubblicamente, assumendosi in prima persona la responsabilità di quel che dicono. L’opzione per una totale neutralità della piattaforma rispetto al contenuto – che in un simile modello resta esclusivamente un contenuto imputabile all’utente identificabile, che ne è esclusivamente e pienamente responsabile – fa in modo che la stessa piattaforma non possa né violare la pluralità dell’informazione né la libertà di manifestazione del pensiero: tutti quanti gli utenti, se desiderano, possono infatti optare per un sistema che gli consente di postare pubblicamente quel che preferiscono senza rischi di censura preventiva privata, ma con la conseguenza di assumersene la esclusiva responsabilità di fronte alla legge. Anche la piattaforma, se desidera, può peraltro a sua volta evitare la corresponsabilità per eventuali contenuti illeciti postati dall’utente, obbligando quest’ultimo ad una procedura di identificazione previa in sede di iscrizione al social. Se invece sia la piattaforma che l’utente non optano per il regime di identificazione certa, a quel punto entrambi i soggetti in questione accettano il regime di responsabilità potenzialmente condivisa che legittima la censura privata: a quel punto – per un verso – gli utenti non potranno lamentarsi di come questo regime viene applicato dai social network e – per altro verso – la piattaforma deve ritenersi del tutto libera di censurare quel che preferisce senza dover rendere conto a nessuno dei criteri che decide di adottare .

Un simile sistema presenta una serie di evidenti vantaggi: i troll – per oscurare un contenuto che non condividono accusandolo di essere illecito – dovrebbero darsi la pena di fare un esposto per iniziare una azione legale o amministrativa contro il soggetto che ha postato il contenuto. Dunque avrebbero la necessità di “metterci la faccia” invece di agire comodamente dall’ombra e nell’ombra come accade ora. Siccome poi l’ordinamento del nostro paese – ma lo stesso vale altrove – prevede procedure urgenti sia amministrative sia giudiziarie che possono portare alla rimozione di contenuti online, l’adozione di un simile modello non dovrebbe portare a ritardi eccessivi per ottenere la cessazione della diffusione di contenuti gravemente illeciti. Ma – soprattutto – in un simile sistema la questione della liceità di un contenuto viene trattata solo dagli enti preposti e non risolta – come invece avviene ora – sulla base del criterio “facile” (ed altrettanto facilmente abusato) secondo cui, per non rischiare grane di alcun genere, è meglio censurare tutto quel che disturba qualcuno. Questo sistema eliminerebbe peraltro anche il sospetto (o – per chi pensa che così sia – il rischio) che i social network si prestino, agendo in modo opaco e non trasparente, a operazioni “politiche” di qualche genere. Infine, sgravando la responsabilità della piattaforma social, si tratta di un sistema che dovrebbe risultare gradito anche alle piattaforme. E quest’ultima condizione è invero assai importante per il successo di eventuali iniziative politiche in tal senso.

Il regime di identificazione dell’utente (e il corrispondente regime di ripartizione della responsabilità) – per quanto sulla carta presenti una pluralità di vantaggi – ha infatti il grave difetto pratico di dover per forza essere attuato dai singoli stati nei limiti delle proprie giurisdizioni nazionali. Non trattandosi di un modello universalmente applicabile, la sua efficacia dipende dunque anche dal fatto che sia adottato e proposto come principio da enti sovranazionali capaci di produrre convenzioni multilaterali estese ad una pluralità di stati (come l’Unione Europea, l’OCSE o le agenzie ONU ad esempio), ma soprattutto occorre che gli stessi social network (e una larga parte degli di utenti) ne favoriscano l’adozione su scala multinazionale. Ovviamente non è possibile prevedere se questo accadrà, però – considerando quante storture sta indirettamente generando il modello attuale fondato sulla colpa in vigilando delle piattaforme – potrebbe valere la pena di iniziare a studiare la fattibilità del modello alternativo, attivandosi presso sia presso le piattaforme social sia presso le istituzioni internazionali, per capire se si tratta di un modello che incontra più favori che sfavori.

Del resto la soluzione che qui viene ipotizzata è certamente più soft rispetto alla prospettiva – ventilata di recente – di obbligare semplicemente i gestori delle piattaforme social a rispettare i diritti fondamentali di manifestazione del pensiero degli utenti. Quest’ultima soluzione “legalista” (invero piuttosto comoda per i pubblici poteri oltre che facilmente spendibile in termini elettorali) esporrebbe infatti i social network al dilemma di dover di volta in volta decidere da sé – di fronte a una segnalazione di contenuto illecito – se far prevalere il diritto ad evitare la propria responsabilità mediante la rimozione immediata contenuti segnalati (col rischio di essere accusati di non rispettare i diritti fondamentali di manifestazione del pensiero degli utenti, se alla fine il contenuto viene ritenuto lecito) o se far prevalere la libertà di manifestazione del pensiero (col rischio però – in questo caso – di essere considerati corresponsabili dell’utente in caso di accertamento dell’illiceità del contenuto). Insomma il costo in termini di incertezza per le piattaforme del modello legalista pare a chi scrive assai peggiore rispetto al costo che implicherebbe un sistema di verifica dell’identità reale degli utenti in sede di iscrizione. Dunque gli stessi social network dovrebbero riconoscere di avere un interesse a spingere per l’adozione del modello qui proposto (ossia quello fondato sulla rinuncia all’ampio potere “censorio” discrezionale che hanno ora in cambio della possibilità di ottenere una esenzione dalla responsabilità per contenuti “sensibili” postati dagli utenti) prima che si formi un ampio consenso sociale e politico attorno all’idea che i social network devono restare assoggettati a regole pubblicistiche che impongano loro di gestire la loro piattaforma in modo da tutelare la pluralità di opinione o la libertà di manifestazione del pensiero. In sintesi: forse meglio per le piattaforme social rinunciare oggi alla censura privata che dover esercitare domani funzioni di controllo delegate che – non essendo enti pubblici – potrebbero creare loro responsabilità e problemi sia quando censurano che quando non censurano.

print


Mark Bosshard
Mark Bosshard
Busto Arsizio (VA), 28 marzo 1970. Avvocato e docente a contratto presso l'Università Cattolica di Milano
© Copyright Fondazione Hume - Tutti i diritti riservati - Privacy Policy
La “censura privata” dei contenuti politici sui social network tra mito sociale e realtà giuridica