La giurisprudenza tra libertà d’opinione e fake news
[Ethica Societas anno 1 n.1]
LA DERESPONSABILIZZAZIONE DEL POTERE SUL WEB
Nel 2019 un giovane professore statunitense di cybersecurity law, Jeff Kosseff, ha pubblicato un saggio dal titolo suggestivo: “The Twenty-Six Words that Created the Internet” [“Le ventisei parole che hanno creato Internet”] [1].
Ebbene, le ventisei parole in questione – più che aver creato Internet in senso letterale [2] –, hanno permesso ad alcuni soggetti di acquisire un enorme – prevedibile [3]– potere sul web mediante la gestione delle piattaforme (degli Internet Service Providers) che oggi conosciamo e (ci) siamo “costretti” a usare quotidianamente soprattutto quali c.d. content provider (id est: inserzionisti o creatori di contenuti digitali).
Ciò è accaduto facendo sì che nessun fornitore e nessun utilizzatore di servizi Internet potesse considerarsi responsabile, come editore o autore, di una qualsiasi informazione inserita sul web da parte di terzi poiché, difatti, le citate ventisei parole lo hanno impedito prevedendo testualmente che: «No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider»[4].
Si tratta di un breve inciso che potrebbe dire poco. Eppure, se volessimo paragonare Internet ad un vasto sistema di strade cittadine, darebbe la metaforica possibilità ad ognuno di noi di percorrerle con mezzi veloci e gratuiti, senza alcun limite o specifica regola di modo resa realmente applicabile dalle istituzioni.
LA NORMATIVA AMERICANA SUL WEB
È stato il legislatore statunitense degli anni 90 che ha voluto assicurare la possibilità di immettere sulle web platform contenuti di “terze parti” pressoché di ogni tipo[5] senza attribuire responsabilità ai gestori delle stesse, i quali, perciò, hanno avuto gioco facile a consolidare in pochi anni – ossia dal 1993 al 2004 circa – l’intrapresa colonizzazione della c.d. “Infosfera” (o spazio cibernetico)[6], sino a diventarne i percepiti “dominanti padroni”.
Nello specifico è la “Sezione 230” del Titolo 47 dello “United States Communications Decency Act”[7] che, dal 1996, in omaggio alla libertà di parola e, quindi, di espressione del pensiero – quali principi “sacri” in nord America e, difatti, inseriti nel primo emendamento della Costituzione USA[8] – ha deresponsabilizzato gli Internet service provider.
Gli USA si sono limitati a considerare l’ascesa del nuovo eco-sistema cibernetico quale opportunità generale, utile a tutti i consociati per esprimersi e comunicare in maggiore libertà: o almeno questa è stata la narrazione ufficiale che, astrattamente, è sembrata e appare nobile, nonché da difendere con fermezza[9].
Del resto risultò da subito arduo considerare le “social web platforms”[10] al pari d’una testata giornalistica: il confronto è sembrato improponibile e, perciò, se l’editore di un qualsiasi giornale occidentale è rimasto responsabile per i contenuti presenti sulla sua testata giornalistica analogica o digitale, i gestori delle piattaforme web, da allora, non lo sarebbero stati pressoché mai, poiché da considerarsi meri distributori di contenuti immessi da altri.
Affatto “poca cosa” venne, dunque, in tal modo prevista: soprattutto in quei primi anni di “colonizzazione selvaggia” che ha permesso a pochi di acquisire una posizione dominante nell’Infosfera virtuale, mantenerla e, oggi, come tenteremo di argomentare, proteggerla in un gioco di equilibrio il cui baricentro poggia ancora sul Congresso federale degli Stati Uniti e sulle direzioni delle principali agenzie governative statunitensi, Pentagono compreso.
LA MODERAZIONE DEI CONTENUTI SOCIAL: LA PLATFORM È MIA E DECIDO IO?
La Sezione 230 del citato “Communication Decency Act” (“CDA”) non è servita solo a immunizzare da responsabilità i gestori delle platforms ma anche a consentire loro di svolgere la funzione di moderatori e, perciò, di decidere quali contenuti “postati” da terzi mantenere e quali rimuovere. Il tutto sulla scorta della “social policy” che i service provider adottano e che l’utente accetta.
Va da sé che alcuni contenuti posti in rete verrebbero rimossi da chiunque poiché, ad esempio, finalizzati all’odio etnico, incitanti alla violenza diretta, implicanti l’abuso di minori etc.: il “CDA”, del resto, nasce proprio per permettere di eliminare a posteriori tali tipi di contenuto. E si deve sottolineare il termine “a posteriori”, perché impedirne ex ante il riversamento sul web avrebbe significato confinare e, quindi, comprimere ab initio, le principali libertà sancite dal primo emendamento della Costituzione statunitense in cui la libertà di parola doveva mantenere un posto di prima fila.
Ebbene, in disparte ciò che potrebbe apparire, in modo evidente, “antidemocratico”, pericoloso e odioso, la larga parte dei contenuti postati sul web appartengono, però, alle più mutevoli categorie di ciò che si può apprezzare discrezionalmente e, disgraziatamente, la discrezionalità è sempre stata il “veleno” di ogni ordinamento: veleno che ne ha “infettato” spesso il diritto materiale.
LE FAKE NEWS
Ed è sempre la discrezionalità che ha di recente ri-generato l’idea delle c.d. “fake news”[11] da (in qualche modo) regolare e rimuovere per legge[12]. Parliamo dell’idea frutto di una vecchia tentazione già da molti ritenuta – non a torto! – terrificante poiché indefinibile quanto la discrezionalità su cui si baserebbe. Idea dai confini incerti e che oggi verrebbero decisi, di volta in volta e di tempo in tempo, non da regole etiche imparziali ed equilibrate di cui si vorrebbe dichiaratamente fare portatrice la politica ma, ovviamente, “dall’utile del più forte” (considerando peraltro che è sempre più arduo dissociare l’etica dalla tecnica, ovvero non considerare la prima pesantemente condizionata dalla seconda[13]).
Oltretutto, al di là della notorietà che le dette “rimozioni” hanno acquisito dopo il noto “ReVokE 230! 5:15 PM 29 mag 2020 DTBasher”, con cui Twitter e Facebook hanno oscurato gli account di Donald Trump[14], la ben più delicata ventennale questione, in realtà, non riguarderebbe tanto le rimozioni e le sospensioni degli account dei c.d. content provider[15], quanto piuttosto la visibilità che i social network possono decidere di dare a determinati contenuti ordinari a discapito di altri, indipendentemente dalle regole del mercato oligopolistico che essi costituiscono: ma tale secondo aspetto, purtroppo, è ritenuto meno interessante del primo e, peraltro, non può essere qui approfondito così come meriterebbe.
La tematica della rimozione o della sospensione degli account negli States è simile a quella che si pone l’Europa e, in entrambi i continenti, le domande (forse sbagliate, eccetto un paio) che emergono sono analoghe: a) occorre davvero una più pregnante regolamentazione istituzionale per i gestori delle web platform? b) E se sì, quale? c) Come decidere cosa rendere a priori oscurabile? d) E se il potere politico rimuovesse il dissenso dai social network? e) Posto che il rapporto tra utente e piattaforma è basato sul contratto, non sarebbe meglio che sia il giudice a stabilire la validità della rimozione in base alla policy accettata dall’utente rimosso o sospeso?
LA CLAUSOLA DEL “PRENDERE O LASCIARE”
L’ultimo di questi interrogativi va approfondito poiché evidenzia la natura contrattuale del rapporto tra utente e platform che, seppur fortemente sbilanciato (a favore della clausola del c.d. “prendere o lasciare”), rimane pur sempre incentrato sull’incontro di due volontà[16].
Il servizio offerto dai social opera, difatti, attraverso le Condizioni d’uso che ne disciplinano i termini di utilizzo e regolano il rapporto tra l’utente e il service provider. In sostanza l’utente, fin dalla registrazione, si impegna ad accettare delle condizioni e regole già predefinite dal gestore. Condizioni che sono parte integrante delle c.d. “Standard of Community” con cui si descrivono genericamente i tipi di contenuti pubblicabili con la dichiarata funzione di garantire la salvaguardia del servizio e della community, nonché di indicare alcune condotte telematico-digitali consentite e non consentite nell’uso del servizio.
Le regole delle Condizioni d’uso e degli standard community rappresentano il regolamento contrattuale che l’utente all’atto della registrazione accetta per adesione e si impegna a rispettare.
In caso di violazione delle regole il regolamento prevede l’irrogazione di misure sanzionatorie ad impatto crescente: 1) la rimozione di contenuti; 2) la sospensione dall’utilizzo del servizio; 3) la disabilitazione dell’account temporanea; 4) la rimozione definitiva nei casi ritenuti più gravi[17].
LA POSIZIONE DI MARK ZUCKEMBERG
Si può dunque sostenere che i servizi social si troverebbero “a metà strada tra ciò che fa una società editrice e una di telecomunicazioni”, come affermato da Mark Zuckerberg pubblicamente?
L’affermazione totalizzante di Zuckerberg è vera. Ma la risposta da dare alla suddetta domanda è no! Il quesito, difatti, nasconde il pregiudizio riduzionista teso a evidenziare il solo rapporto tra platform e utente principale escludendo la “sotto-galassia” dei rapporti esistenti tra utente principale ed utenti o associati di/a quest’ultimo, ove non li volessimo definire semplicemente “followers” in senso (fin troppo) generale.
È tale “sotto-galassia” a essere, difatti, poco esplorata giuridicamente e socialmente. È essa che, forse, oggi, porta alcuni operatori del diritto a confondere e sovrapporre la funzione svolta dall’apparato Internet con quella delle platform (i providers) che lo hanno prepotentemente colonizzato. Eppure sono due “apparati d’Infosfera” ontologicamente diversi tra loro, da tenere ben distinti. Volendo tentare di spiegarne la differenza in metafora, si potrebbe dire che il primo (Internet) sarebbe l’oceano, le seconde (le platform) le grandi navi che lo solcano.
COSA ACCADE IN ITALIA
In Italia, alcune recenti decisioni giurisdizionali[18] riflettono (ancora) la seria difficoltà di comprendere l’articolato fenomeno in questione e la funzione dello stesso, nonché d’interpretare correttamente il rapporto giuridico e fattuale che può esistere tra i social e gli utenti, ovvero tra utenti e i “sotto-utenti” che sarebbero da associare ai primi e non alle network platform[19].
Ad esempio il Tribunale di Roma, sezione specializzata in materia di imprese, con ordinanza in data 11-12-2019, rispetto alla rimozione della pagina FaceBook di una nota associazione politica italiana[20] da parte di FaceBook Ireland, ha dato ragione alla associazione affermando l’evidenza del rilievo preminente assunto dal servizio social rispetto ai principi cardine dell’ordinamento come quello del pluralismo dei partiti politici (art. 49 Cost.), altrimenti, si legge nell’ordinanza, «il soggetto che non è presente su Facebook è di fatto escluso (o fortemente limitato) dal dibattito politico italiano// Ne deriva che il rapporto tra Facebook e l’utente // non è assimilabile al rapporto tra due soggetti privati qualsiasi in quanto una delle parti// ricopre una posizione speciale che comporta che// Facebook debba strettamente attenersi al rispetto dei principi costituzionali e ordinamentali // ciò che costituisce per il soggetto Facebook condizione e limite nel rapporto con gli utenti//»[21].
Nel caso il Tribunale romano tocca pure, seppur sbrigativamente, il tema della responsabilità civilistica «di eventi e di comportamenti (anche) penalmente illeciti da parte di aderenti all’associazione», colà affermando che la stessa non possa ricadere in modo automatico sull’associazione politica tanto da precluderne la libera espressione del pensiero[22] su un social così rilevante. Tale responsabilità, prosegue il Tribunale a favore della tesi dell’utente rimosso, va interpretata restrittivamente[23] e quindi l’account va ristabilito in via d’urgenza.
L’ISTIGAZIONE ALLA VIOLENZA, LA VICENDA CASAPOUND
Ed è sempre il Tribunale di Roma che, un anno dopo, con ordinanza cautelare del 23/02/2020[24], decide un caso simile a quello di Casa Pound ma in modo decisamente diverso, quasi opposto. Questa volta la vicenda riguardava l’associazione Forza Nuova e la disattivazione di molte pagine Facebook relative alla stessa, poiché variegatamente riconducibili agli amministratori di entità a supporto delle tesi politiche espresse in modo collimante ad essa.
La disattivazione era stata adottata da Facebook in ragione di contenuti (postati) di incitamento all’odio e alla violenza.
Il Giudicante italiano precisa infatti alcuni elementi che differenziano tale decisione dalla precedente, ossia: 1) la qualificazione del partito politico quale “organizzazione d’odio”[25] ; 2) la sottesa “apologia del fascismo”; 3) le condotte dei militanti non valutate in base alla pubblicazione dei contenuti incriminati sulla pagina del partito di affiliazione ma come relazione di continuità con lo stesso. Questi tre elementi hanno portato il giudice a sottolineare il divieto di ogni tipo di comunicazione discriminatoria e violenta che, in quanto tale, non può trovare alcun appoggio nell’evocato diritto alla libertà di espressione[26] .
In aggiunta a ciò, il Giudice romano ha sottolineato la stretta connessione che esisterebbe tra le condotte di c.d. “hate speech” (discorsi d’odio) e le social platform come veicolo di diffusione.
Per il tribunale si tratterebbe insomma di configurare le piattaforme on-line e in generale i social network come “arene virtuali” di amplificazione della lesività dei comunicati d’odio e di velocizzazione della loro propagazione, nonché della possibilità che il contenuto offensivo sopravviva, moltiplicandosi ben oltre la sua presenza sulla vetrina di prima apparizione, ossia in parti del web diverse da quelle d’origine.
CONDOTTA ANTIDEMOCRATICA
Ed è perciò che il Giudice ha ritenuto una simile condotta antidemocratica e pericolosa in sé. Così ne deriverebbe sia l’obbligo a carico di Facebook di sorvegliare in generale i contenuti pubblicati dagli utenti, sia il suo dovere giuridico di intervento proprio perché, sebbene resti un soggetto privato, il servizio offerto dalla platform “svolge un’attività di indubbio rilievo sociale”.
Quest’ultima parte motivazionale (non isolata nel panorama giurisprudenziale italiano) è importante poiché sottende che i social network sarebbero tenuti a compiere una sorta di valutazione di merito del singolo contenuto pubblicato e della “democraticità” dei soggetti a cui lo stesso risulti legato.
È tale ultima valutazione che, quindi, aprirebbe la strada ad una delicata operazione di equilibrismo condotta tra “strumenti di controllo” e di censura che mortificano le basi della democrazia”.
Ed infatti è la stessa ordinanza ad evocare il caso “Féret versus Belgio”[27] (vertenza europea in cui la questione del bilanciamento è emersa) quasi a voler fare appello all’estrema prudenza necessaria a compiere tale operazione di bilanciamento che, invero, il Giudice di Roma pare pertanto assegnare ai gestori delle piattaforme riportandoci nel solito schema duale (platform – utente principale) che, leggendo la prima parte della decisione, sembrava essere stato abbandonato.
Orbene, per ricavare una sintesi da questi esempi[28], si potrebbe dire che gli stessi fanno emergere fondamentalmente tre aspetti: i) la necessità di tutelare beni giuridici democratici di base che, per mezzo dei social network, potrebbero essere lesi più gravemente e più velocemente; ii) la semplificazione e la riduzione dell’Infosfera e dei social network all’interno di un paradigma duale; iii) un errore di fatto e di diritto iniziale che limita l’indagine alla superficie dei variegati rapporti che le piattaforme innescano e che, tuttavia, non sarebbero affatto irrilevanti per l’ordinamento giuridico.
In definitiva uno dei tre aspetti sopra indicati risulta sacrificato a tutela degli altri due in assenza di una analisi adeguata sul sistema che gravita intorno alle platform perché, forse, reso finanche impossibile da esplorare (e, dunque, a maggior ragione, anche da giudicare, soprattutto in base a categorie giuridiche e fatti semplificati).
NOTE:
[1] Jeff Kosseff è professore associato di diritto della sicurezza informatica presso l’Accademia navale degli Stati Uniti d’America. Egli è l’autore di “Cybersecurity Law” (Wiley), un libro attinente alla normativa sulla sicurezza informatica. Nel 2019 ha pubblicato “The Twenty-Six Words that Created the Internet” (Cornell University Press), un saggio che riguarda la storia della Sezione 230 dello “United States Communications Decency Act”.
[2] In sintesi va ricordato che, “Internet”, lungi dall’essere un qualche cosa di astratto ed utopico, deriva da “Arpanet”, quale pragmatico sistema di comunicazione fatto progettare, creato ed utilizzato dalle forze militari statunitensi a partire dalla fine degli anni settanta. Le licenze e brevetti originari legherebbero ancora una buona parte dell’uso di “Internet” e, oltretutto, risulterebbero strettamente vincolati ad obblighi di segretezza in base a leggi di sicurezza nazionale degli USA.
[3] Circa il rafforzamento del potere statale e delle politiche pubbliche rispetto all’accrescimento dell’importanza delle piattaforme cibernetiche potrebbe essere utile riferirsi a M. Rotenberg, “Schrems II, from Snowden to China: Toward a new alignment on transatlantic data protection”, in European Law Journal, 11/09/2020; cfr. anche G. Orsoni D’Orlando “Nuove prospettive dell’amministrazione digitale: Open Data e algoritmi”, in Istituzioni del Federalismo, n. 3/2019.
[4] Questa regola troverebbe origine da un fatto accaduto in California nel 1956. Un edicolante, dopo aver venduto a due poliziotti in borghese un giornaletto a sfondo sessuale, si è trovato costretto a difendersi in giudizio poiché imputato di aver divulgato oscenità. L’uomo venne assolto sulla scorta della seguente dichiarazione che, all’evidenza, fece breccia nell’organo giudicante: «Io quel giornale non l’ho letto, non conoscevo i contenuti, come non conosco di cosa trattino i libri e i giornali che vendo nella mia edicola». E posto che il sistema giuridico degli USA muove in base alla “case law”, da allora venne stabilito che chi distribuisce contenuti non avrebbe avuto responsabilità rispetto agli stessi, altrimenti si sarebbe violato il primo emendamento della Costituzione, nonché ingiustificatamente limitato l’editoria a detrimento dell’economica di mercato. Da tale principio è nata la Sezione n. 230 del “Decency Act” che ha equiparato le social platforms ai distributori di contenuti di terze parti, ovverosia assumendo la stessa logica di deresponsabilizzazione che aveva salvato dalla condanna l’edicolante californiano ben quarant’anni prima.
[5] Ad eccezione delle limitazioni normative poste ad esempio dai diritti d’autore e dalla regolamentazione della privacy delle persone in base alla legislazione statunitense del tempo (queste ultime da non confondere con quella attuale europea che fonda il proprio costrutto su basi differenti).
[6] Al proposito è interessante il parallelismo d’esempio offerto da Ugo Mattei (giurista e politico contemporaneo) tra la frontiera del vecchio mondo, ed il saccheggio incontrollato ivi perpetrato dai coloni del tempo, con la nuova frontiera della c.d. “info-sfera” (il mondo digitale) in cui, secondo Mattei, negli ultimi decenni si è verificato una sorta di simile incontrollato saccheggio, soprattutto dei dati personali degli individui, a grave danno degli stessi.
[7] Il Communications Decency Act (“CDA”) nasce quale tentativo del Congresso degli Stati Uniti di regolamentare la pornografico on line. Esso è il Titolo V dell’Atto sulle telecomunicazioni del 1996, specificato nella Sezione 501 dell’Atto del 1996. L’emendamento che è diventato il “CDA” è stato aggiunto alla legge sulle telecomunicazioni il 15-06-1995. Il Titolo V ha poi influenzato le comunicazioni online in due ambiti: i) tentando di normare le indecenze e l’oscenità nello spazio digitale; ii) con la Sezione 230 del titolo 47 del Codice USA, quale parte di una codificazione del Communications Act del 1934 (Sezione 9 del CDA/Sezione 509 del Telecommunications Act del 1996) interpretata nel senso che gli operatori dei servizi Internet non sono editori e quindi non sono legalmente responsabili per le parole di terzi che utilizzano i loro servizi.
[8] In linea con il primo emendamento della Costituzione USA, il quale non consente al legislatore di introdurre limitazioni alla libertà di pensiero, la giurisprudenza ritiene legittima ogni manifestazione del pensiero, seppure inscrivibile della definizione di hate speech, che non comporti un pericolo chiaro e imminente tale da giustificare l’intervento dello Stato.
[9] Oggi da difendere sempre più in concreto, vista la recente attrazione manifestata dai governi occidentali verso la limitazione del pensiero critico o, almeno, di quello ritenuto divergente dal loro.
[10] Ossia, tecnicamente, gli Internet Service Providers e i servizi della c.d. società dell’informazione.
[11] Sulle “fake news” cfr. A. Candido, “Libertà di informazione e democrazia ai tempi delle Fake news”, in federalismi.it, n. 20-2020; M. Bassini e G.E. Vigevani, “Primi appunti su fake news e dintorni”, in MediaLaws, 2017, 15; R. Perrone, “Fake news e libertà di manifestazione del pensiero: brevi coordinate in tema di tutela costituzionale del falso”, in Nomos, Le attualità nel diritto, n. 2-2018.
[12] Nell’ordinamento italiano, ad esempio, si “stava” diffondendo l’idea politica di introdurre per legge nuove fattispecie penali per punire chi pubblica, diffonde o comunica notizie false.
[13] Platone definisce la tecnica in senso molto ampio, come produzione: e posto che la produzione è la potenza che fa passare le cose dal loro non essere al loro essere e viceversa, anche l’etica sarebbe una forma di produzione che si prefigge di produrre il “bene” e distruggere il “male”.
[14] Andrea Iannuzzi ha suggestivamente scritto al proposito che «Dal 2016 in poi le piattaforme dei social network sono lo scenario di una nuova guerra combattuta con armi sofisticate, fabbriche di troll, potenze straniere impegnate nel tentativo di manipolare risultati elettorali e di hackerare le stesse piattaforme. Questo, prima ancora del diritto a bloccare gli account di Donald Trump, dovrebbe essere il primo argomento nell’agenda dei governi e delle istituzioni internazionali» (cfr. “Regole per i social media, le domande che solleva il “deplatform” di Trump. E le possibili soluzioni “ di Andrea Iannuzzi”, Repubblica on-line del 12/01/2021).
[15] Così sono definiti gli utenti che immettono contenuti sul web previa registrazione ad una platform.
[16] Cfr. Tribunale di Roma, ordinanza nella causa iscritta al n. 80961/2019, avente per oggetto: reclamo ex art. 669 terdecies c.p.c. avverso ordinanza resa dal Tribunale di Roma monocratico in data 11/12/2019: «Il collegio ritiene indubbia la qualificazione del rapporto fra Facebook Ireland e l’utente come un ordinario contratto di diritto civile – un contratto atipico nel quale il gestore fornisce gratuitamente un servizio di condivisione di documenti e di comunicazione e che prevede a carico dell’utente l’impegno a rispettare determinate condizioni di utilizzo – con la conseguenza che la legittimità dell’esercizio del potere di recesso del fornitore del servizio deve essere valutata in primo luogo sulla base delle regole negoziali dallo stesso dettate, secondo il modello del contratto per adesione».
[17] Si può qui riportare un estratto dall’introduzione agli Standard della Comunità Facebook secondo cui «Le conseguenze per la violazione degli Standard della community dipendono dalla gravità della violazione e dai precedenti della persona sulla piattaforma. Ad esempio, nel caso della prima violazione, potremmo solo avvertire la persona, ma se continua a violare le nostre normative, potremmo limitare la sua capacità di pubblicare su Facebook o disabilitare il suo profilo».
[18] Si può ricordare anche la meno recente sentenza del Tribunale di Milano (sent. n. 1972/2010), che aveva condannato i vertici di Google, quale gestore della relativa piattaforma, per non aver svolto un controllo preliminare sul contenuto caricato da un utente. Decisione poi rivista dalla Corte di Cassazione con la sentenza n. 5107/2014, che ha assolto i manager di Google: «Google non ha alcun controllo sui dati memorizzati né contribuisce in alcun modo alla loro scelta, alla loro ricerca o alla formazione del file che li contiene, essendo tali dati interamente ascrivibili all’utente destinatario del servizio che li carica sulla piattaforma messa a sua disposizione».
[19] Nel merito, si può ricordare anche la sentenza della Corte di giustizia dell’Unione europea del 05/06/2018 in cui i giudici hanno individuato un rapporto di contitolarità tra social (FaceBook) e utente (Fanpage), anche se in riferimento al una problematica strutturale e non contenutistica.
[20] Ciò che incuriosisce molto di tale decisione è il (trascurato) fatto che l’Associazione in questione si sia definita di “Promozione sociale di tipo politico” (id est: Casa Pound) e che, a quanto pare, a nessuno sia venuto in mente quanto chiaramente disposto dal Dlgs n. 117/2017 (il Codice del c.d. Terzo Settore) che, difatti, vieta che possano esistere Associazioni di promozione sociale politiche e sancisce che tale qualificazione (in acronimo APS) possa essere utilizzata (cfr. art. 35 del Decreto) solo dai soggetti che rientrano nel novero di quelli definiti e previsti dagli artt. 4 e 5 del Codice.
[21] P.Q.M. Il Tribunale di Roma, in composizione monocratica, visto l’art. 700 c.p.c.: – accoglie il ricorso e, per l’effetto, ordina a FACEBOOK IRELAND LIMITED l’immediata riattivazione della pagina dell’APS Casa Pound Italia e del profilo personale di XX, quale amministratore della pagina; – fissa la penale di € 800,00 per ogni giorno di violazione dell’ordine impartito, successivo alla conoscenza legale dello stesso; condanna FACEBOOK IRELAND alla rifusione delle spese di giudizio sostenute da APS CASA POUND ITALIA e XX, liquidate in complessivi € 15.000,00, oltre spese generali ed accessori come per legge. Si comunichi. Roma, 11 dicembre 2019 – Il Giudice//.
[22] La libertà di pensiero viene definita dalla giurisprudenza come la «pietra angolare dell’ordine democratico» (Corte Cost. n. 84/1969), il «cardine del regime democratico» (Corte Cost. n. 1/1981) e la «condizione del modo di essere e dello sviluppo della vita del paese in ogni suo aspetto culturale, politico, sociale» (Corte Cost. n. 9/1965).
[23] Nell’ordinanza si legge anche che «il preminente e rilevante ruolo assunto da FACEBOOK nell’ambito dei social network, anche per quanto riguarda l’attuazione del pluralismo politico rende l’esclusione dalla comunità senz’altro produttiva di un pregiudizio non suscettibile di riparazione per equivalente (o non integralmente riparabile) specie in termini di danno all’immagine».
[24] Cfr. Tribunale di Roma, Sezione diritti della persona e immigrazione, 23/02/2020. R.G. 64894/2019.
[25] Per Facebook sarebbe d’odio «qualsiasi associazione di almeno tre persone organizzata con un nome, un segno o simbolo e che porta avanti un’ideologia, dichiarazioni o azioni fisiche contro individui in base a caratteristiche come razza, credo religioso, nazionalità, etnia, genere, sesso, orientamento sessuale, malattie gravi o disabilità».
[26] La decisione si appella alla giurisprudenza della Corte Europea dei Diritti dell’Uomo in materia di hate speech, ove sarebbero sempre sintomatici di condotte violente e d’odio razziale il modo in cui la comunicazione è posta in essere, il linguaggio utilizzato, il contesto, il numero di destinatari, la posizione dell’autore della dichiarazione.
[27] Cfr. sentenza Féret contro il Belgio del 16/07/2009 (ricorso n. 15615/07).
[28] Decisioni che rifletterebbero lo “stato dell’arte” del pensiero giurisprudenziale nazionale.