Hate Speech: come funziona il sistema di controllo di un social network?
Quando mi si chiede dei social e del ruolo che essi hanno nella società, io rispondo sempre per vie traverse. Su tutto penso si debba abbandonare un certo buonismo e dire, senza mezze misure, che il problema fondamentale della cultura digitale è che essa non ha proceduto per gradi, ma anzi si è passati da un approssimativo “zero”, ad un momento di assoluta connessione.
Per farvi capire ciò, vi faccio un esempio molto semplice: ai 18 anni la stragrande maggioranza delle persone decide di prendere la patente per guidare l’auto, e pertanto ci si assicura che l’utente conosca il mezzo, ci si interfaccia progressivamente e “con calma” perché arrivi quanto meno alla consapevolezza di sé stesso in relazione all’auto, per poi essere dichiarato adeguato alla guida. Ecco, per internet questo non è successo, e vista la potenza e l’importanza del mezzo, trovo paradossale che esso sia utilizzato senza cognizione di causa.
Eppure, nella sua importanza, nel suo essere forse lo strumento più potente escogitato dall’uomo, internet è stato semplicemente diffuso senza che si costruisse, in qualche modo, una concezione del mezzo. Senza insomma che le persone si allineassero allo strumento “rete”, finendo dunque per avvicinarsi privi di consapevolezza. Internet ha un pregio: concedere la massima libertà espressiva e di parola, mettendo, da questo punto di vista, ogni persona, ogni classe sociale, sullo stesso piano.
Il punto è che senza alcuna formazione, senza un minimo di dimestichezza, si è spesso arrivati a confondere quel che si intende come “possibilità di esprimersi” come “obbligo ad esprimersi”. Tutti asseriscono che tutte le opinioni hanno pari valore, ma non è così.
La pratica della parola obbligatoria ha portato nel tempo ad una forma particolarmente violenta di espressione delle proprie opinioni, in quella che è una modalità che, in gergo, viene definita “hate speech”. L’hate speech è quella forma di comunicazione per cui, per lo più attraverso i social, si attacca in modo prepotente una specifica categoria sociale. Sia essa religiosa, politica, razziale. L’hate speech può accostasi a qualunque cosa, con una sintesi quasi encomiabile: “sei merda perché lo dico io”. Una pratica che nella meccanica dei social è diventata quotidiana e che manifesta, più che un’opinione, una particolare fascinazione per l’ignoranza, quella più becera e volgare. Vista la prassi, ormai ordinaria, della violenza verbale e gratuita, non ci meraviglia che i social network, specie nelle loro figure più importanti sul web, si siano posti il problema di arginare il fenomeno dell’hate speech che così indiscriminatamente colpisce il web e che, come capirete, finisce spesso per rappresentare vere e proprie apologie al razzismo. Aprendo anche ad una discussione sul profilo legale del nostro io digitale.
Si può perseguire una persona per ciò che dice in rete? La risposta è ovviamente sì, ma allora come si definisce cosa ci rende colpevoli e cosa no?
Il primo e fondamentale passo in tal senso è stato mosso proprio negli ultimi mesi, con sostanziali modifiche agli algoritmi di controllo sul flusso di commenti e notizie, ed un rollup che sta investendo un po’ tutte le piattaforme, a partire da Instagram che è stato forse il primo a muoversi in tal senso già lo scorso maggio. Un sistema che, in ogni caso, è in corso di integrazione su tutte le piattaforme dominanti come Facebook, Twitter e Youtube.
Il punto è: come funziona la logica dietro questi meccanismi di controllo? E come si può far sì che essi non sfocino in un sistema di censura? L’argomento è molto caldo, e piattaforme come Facebook, il cui livello di censorship è sempre stato fuori scala, sono ovviamente in prima linea per rassicurare gli utenti specie se si considera che, proprio Facebook, era stata investita da una notevole shit storm in merito alla sua incapacità di discernere il nudo artistico dalla pornografia. Anche quando questo era diffuso per mezzo di opere d’arte particolarmente celebri e non “semplicemente” attraverso la fotografia.
Tutta questa riflessione nasce dal tipico paradosso di Giovenale: “qui custodiet custodies?”. Non servirebbe che qualcuno controlli chi è addetto al controllo, eppure come la storia insegna il paradosso è sempre attuale e in questo caso, tutta questa riflessione nasce dall’analisi tecnica compiuta dal portale ProPublica, che ha evidenziato come il meccanismo di controllo di alcuni social nei confronti dell’hate speech sia, di fatto, privo di logica e raziocinio. Relativamente a Facebook, la regola è in verità abbastanza semplice: ci sono categorie che sono protette dalla merda digitale, e categorie che non lo sono. Come queste siano state scelte è assolutamente arbitrario e dipende – come capirete – dalle persone che il sistema lo hanno escogitato. Sesso, gender identity, razza e religione sono ovviamente le principali categorie sotto l’attenzione di Facebook; età e occupazione – per dire – non lo sono e sono lasciate al proprio destino. E dunque: se dici “a morte tutti i mussulmani” il sistema lo riconosce come hate speech e lo blocca, al contrario “a morte tutti i vecchi” non è riconosciuto come un contenuto d’odio, e il sistema ne permette la pubblicazione, il che è paradossale visto che nel mondo vero l’odio non fa differenze di reddito, come non le fa di età. Ma la vera stranezza è data dall’analisi tecnica del sistema di protezione per cui, se si mescolano le categorie, queste danno risultati nulli. In sintesi: se in una frase si attaccano due categorie protette, il sistema riconosce il commento come hate speech e lo blocca, ma se si mescola ad una categoria protetta una non protetta, allora il commento non è riconosciuto come uno di odio per cui: “ammazziamo tutti i vecchi mussulmani” non è, per il social, un commento d’odio. Conoscendo le regole relative al blocco è facile aggirarle in modi anche molto creativi, sicché è possibile includere ancor più fette nella propria discriminazione. Non solo, poiché il dibattito sulla responsabilità di ciò che dice un io digitale è sempre aperto, attraverso contenuti che manifestano espressamente odio, ma che in realtà esprimono una sottesa incitazione allo stesso, diventano difficili da comprendere per l’algoritmo, ed anche complessi da perseguire per chi se ne fa artefice. Questo, unito alla presenza di categorie che, per motivi del tutto aleatori non risultano protette, ed un esempio lampante sono i bambini, rende nulla l’efficienza dell’algoritmo, così come incomprensibile lo status “legale” del commento in sé.
Si tratta di un problema di logica dei modelli per cui non è possibile, visto anche il riserbo che c’è nei confronti degli algoritmi social, capire cosa sia considerato giusto e cosa sia considerato errato. Premesso che un navigante medio non ha alcuna idea delle logiche dettate dagli algoritmi, il problema è alla base dello sviluppo della comunicazione sui canali social, in ogni caso. Perché? Perché se il sistema di controllo si basa su modelli fallaci, allora sussiste almeno una possibilità di ingannare il sistema e questo, fondamentalmente, comporta un’inefficacia dello stesso. Dato che la comprensione del modello può solo derivare dalla pratica, è anche molto difficile stabilire cosa sia effettivamente sotto l’attenzione dell’algoritmo e cosa no. Ne vengono fuori situazioni al limite del paradosso in cui, come nell’ultimo esempio di cui sopra, determinate categorie non protette rendono il controllo inefficace, semplicemente perché inserite in una frase che, in ogni caso, incita all’odio.
L’analisi e la comprensione del sistema, e la sua messa a punto, è a dir poco fondamentale in un momento storico in cui l’odio si diffonde sui social quotidianamente, sia nei piccoli sistemi (come quelli relativi, ad esempio, ai gruppi privati di conversazione) sia ai sistemi più grandi, come le pagine pubbliche colpevoli della diffusione di stereotipi razziali negativi, specie se questi sono mascherati da quella che molti erroneamente definiscono “satira” o dal dilagare di immagini “spiritose” come i meme. Esempi impunemente attivi sono presenti in tutto il globo e sono, purtroppo, lasciati alla sbando. Il problema sembra essere anche relativo al sistema adottato da ogni paese per cui la piattaforma giudica “giusta” o “sbagliata” una determinata categoria in base a quella che è la legislazione in vigore nel paese di riferimento. Quel che comunque crea scalpore, in questo momento, è la possibilità di aggirare in ogni caso il sistema di controllo che non va erroneamente associato alla censura, ma ad una più ovvia e doverosa difesa dei diritti altrui.
Tornando alle premesse di questo articolo, l’hate speech è un male che prescinde dalla libertà di parola e come tale va trattato. L’Europa, in particolare, affronta il tema con le dovute misure, e proprio di recente ha diffuso, di comune accordo con i principali social network, il cosiddetto “Codice di condotta sulle espressioni online di incitamento all’odio”, un documento non vincolante tra la Comunità Europea e i principali attori del social networking mondiale, e grazie al quale queste ultime si impegnano, entro le 24 ore dalla segnalazione, a verificare quelle di hate specch per intervenire poi prontamente in base ai propri termini di servizio e le leggi in materia. Allo stato attuale, basato sulle verifiche della Commissione per la Giusitizia e la parità dei sessi, pare che l’obiettivo di arginare le segnalazioni in 24 ore sia ancora utopico, e per lo più si riesce ad intervenire nell’arco di un tempo che può arrivare sino alle 48 ore.
Il problema principale, come detto, è la diversità delle normative dei vari stati membri, tra cui ovviamente l’Italia, che rende difficile decretare uniformemente ciò che è illegale, e ciò che non lo è, questo perché spesso il giudizio è influenzato dalla soggettività e si finisce per stabilire una casistica arbitraria e non basata sul codice penale vigente. A ciò si unisce naturalmente la diversità delle norme vigenti, a cui consegue l’ovvia diversità di giudizio degli organi addetti alla revisione e controllo. Il sunto è che l’applicazione di una “giurisdizione” transnazionale diventa veramente molto difficile, e dunque si finisce per rendere la revisione del social network (qualunque esso sia) in qualche formula sostitutiva dell’atto giuridico.
Questo trend sta portando rapidamente ad un generale interesse per il “ripulisti” più che per il controllo, come se la Commissione garante dell’applicazione delle norme sull’hate speech chiedesse agli attori social non tanto di interessarsi ad una qualità delle proprie decisioni, ma su tutto alla rimozione dei contenuti “inappropriati”. Da questo punto di vista, quello che doveva essere un sistema di applicazione delle norme al di fuori di ogni criticabilità di censura, diventa invece un sistema fortemente contestabile, perché – demandato in toto al giudizio arbitrario della piattaforma – non si pone il problema se ciò che sta cancellando sia effettivamente colpevole o meno.
Per dire, la succitata satira, nella sua accezione positiva, dunque una satira VERA, e non una maschera per i commenti più beceri, è fortemente a rischio e potrebbe finire sotto la scure del controllo a causa di un giudizio sommario da parte di chi sta monitorando l’attività social che, ricordiamolo, prevede la segnalazione “libera” dei post altrui, e che spesso mette sotto indagine situazioni che poco hanno a che vedere con la diffusione dell’odio digitale. Un problema che, tra l’altro, non fa che aumentare la percezione dell’incapacità di una seria e funzionale autoregolamentazione dei mezzi social.
L’attuale situazione, inoltre, lascia diversi spiragli ad alcuni interrogativi, uno su tutti quello riguardante la trasparenza, quantomeno attraverso la creazione di un elenco pubblico tramite il quale poter liberamente consultare le decisioni di rimozione, con la relativa giustificazione dell’illecito, a differenza di quanto accade oggi, momento in cui la rimozione dei contenuti non è mai giustificata se non dalla rimozione in sé. Sarebbe gradito anche sapere chi ha intervenuto sulla rimozione ovvero, quale organo (se statale, parastatale o ONG) l’abbia amministrata. Questo non per istigare ad un movimento di controllo nazionalpopolare ma per permettere a diversi addetti ai lavori, giuridici o meno, di poter analizzare e statizzare l’andamento del sistema di controllo per effettuare, poi, le doverose messe a punto. La qual cosa, come capirete, è oggi impossibile.
Il tema è veramente caldo, ed attualmente è sulla bocca di almeno una trentina di paesi in tutto il globo, ovvero quelli che hanno deciso di seguire il modello UE in merito alla legiferazione in materia e che hanno abbracciato la campagna contro la violenza digitale. Tra questi, seppur non al passo con gli altri, c’è anche l’Italia, che – seguendo le impostazioni della politica europea – si sta interrogando sulle modalità di costruzione e applicazione di una legge che sia garante del diritto di parola. Non un peccato di ignoranza, ma una volta tanto un momento di ponderata trasparenza, onde evitare che, come detto più su, il sistema di controllo possa deformarsi in uno di censura. Altrove, sempre in Europa, ci sono poi paesi che hanno già legiferato in materia, primo su tutti la Germania in cui è stato fissato un limite massimo (24 ore) per la cancellazione dei contenuti offensivi, con un massimo di 7 giorni, per i social network, per provvedere alla rimozione secondo legge, con in più la possibilità di una multa per chi verrà ritenuto colpevole, con un ammontare pari ad un massimo di ben 50 milioni di euro.
La questione si fa insomma molto seria, ed è lo specchio di quanto detto in premessa: un controllo che è mancato alle origini, che ha portato ad un comportamento sempre più becero da parte dei naviganti, i quali hanno cominciato a pretendere, in modo sempre più violento, di far valere il proprio “diritto” di parola sul prossimo. In tal senso, al di là delle decisioni legislative, è evidente che i primi moderatori del nostro io digitale siamo, neanche a dirlo, noi stessi. Non nella misura in cui si debba passare le proprie giornate a monitorare i comportamenti altrui, ma nell’ottica di prendere coscienza della sovrapposizione che esiste tra io reale e digitale, con la relativa comprensione del principio causa/effetto che sussiste tra violenza verbale e colpa. Poiché pensare, erroneamente, che non esista una conseguenza semplicemente perché “è solo un post su Facebook” non è solo errato, ma è un profondo peccato di ignoranza.