La UE contrasta la diffusione dell'odio online

Sponsorizzato

Pubblicato il quinto report nell'ambito del Codice di Condotta della Commissione europea

Europe
Europe Direct Firenze
09 luglio 2020 15:23
La UE contrasta la diffusione dell'odio online

Per contrastare la diffusione, sempre più preoccupante, dell’utilizzo del discorso d’odio online, la Commissione europea ha firmato, nel maggio 2016, un codice di condotta che impegna i grandi colossi della tecnologia informatica ad impegnarsi in questo senso. I primi firmatari sono stati Facebook, Microsoft, Twitter and YouTube, a cui si sono aggiunti Instagram, Google+, Snapchat and Dailymotion nel 2018 e Jeuxvideo.com nel 2019.

Ma com’è che funziona? I progressi fatti (o meno) nell’implementazione del Codice di Condotta sono valutati in modo regolare attraverso un monitoraggio costante effettuato in collaborazione con una rete di organizzazioni da diversi paesi UE (vedi qui). Usando una metodologia condivisa, si riesce a valutare come le compagnie stanno applicando le disposizioni del Codice. A seguito di ogni valutazione, viene elaborato un report in cui vengono analizzati i risultati raccolti.

Il report rilasciato il 22 giugno (vedi qui), in merito al quinto “round” di monitoraggio sull’implementazione del Codice di Condotta, ci consegna dati piuttosto positivi. Vediamo nel dettaglio:

- Segnalazioni di discorso d’odio: nel corso del periodo preso in analisi (le sei settimane tra il 4 novembre e il 13 dicembre 2019) sono arrivate alle compagnie che hanno aderito al Codice 4364 segnalazioni (2513 sono arrivate da normali utenti, 1851 attraverso specifici canali disponibili solo per segnalatori accreditati). Gran parte di queste segnalazioni sono arrivate a Facebook (2348), sono seguiti poi Twitter (1396), YouTube (464) e Instagram (109). Jeuxvideo.com e Dailymotion ne hanno riportate rispettivamente 40 e 7. Oltre ad aver segnalato i casi di odio alle piattaforme, le organizzazioni ne hanno sottoposti 475 all’attenzione della polizia e delle autorità nazionali.

- Tempo di gestione delle segnalazioni: nel 90,4% dei casi le segnalazioni arrivate alle compagnie sono state gestite in meno di 24 ore, un altro 4,9% in meno di 48 ore, il 4,3% in meno di una settimana mentre solo lo 0,4% dei casi ha richiesto più di una settimana. Per dare un’idea dei progressi fatti, la percentuale delle segnalazioni risolte in una giornata nel 2019 era dell’89%.

- Tassi di rimozione: complessivamente, il 71% dei post segnalati è stato rimosso mentre il 29% è rimasto online. I dati sono in linea con quelli del 2019 (quando il tasso di rimozione era del 71,1%). Nel dettaglio, Facebook ha rimosso l’87,6% dei contenuti, YouTube il 79.7% e Twitter il 35.9%

I tassi di rimozione dipendono dalla gravità del contenuto. In media, l’83,5% dei contenuti che invocavano/auguravano morte o violenza per specifici gruppi di persone sono stati rimossi, mentre i contenuti con parole o immagini diffamatorie sono stati eliminati nel 57,8% dei casi. Questo ci mostra come il lavoro di valutazione dei contenuti venga svolto tenendo di riguardo la libertà di espressione.

Un elemento interessante da tenere in considerazione è la differenza tra i tassi di rimozione tra contenuti segnalati attraverso canali riservati ai “segnalatori accreditati” e quelli disponibili a tutti gli utenti (che è cresciuta fino al 16,2% dal 4,8% del 2018). Questo ci indica che, in un qualche modo, le due tipologie di segnalazioni sono trattate in modo differente.

- Feedback agli utenti e trasparenza: in media, le compagnie della tecnologia informatica hanno mandato un feedback al 67,1% delle notifiche ricevute (una percentuale leggermente maggiore a quella del precedente monitoraggio, 65,4%). In particolare, solo Facebook informa in modo praticamente sistematico (93,7% dei casi) gli utenti sugli esiti delle loro segnalazioni. Twitter lo fa nel 43,8% dei casi, Jeuxvideo.com nel 22,5% e YouTube solo nell’8,8% dei casi. È importante sottolineare come Facebook dia il proprio feedback allo stesso modo a segnalazioni provenienti sia da normali utenti che da segnalatori accreditati, mentre Twitter, YouTube e Instagram lo facciano quasi esclusivamente nel secondo caso.

Dal momento che è stata rilevata una correlazione tra l’invio sistematico di feedback agli utenti, la veloce revisione delle notifiche e l’effettiva rimozione quando necessaria, le raccomandazioni della Commissioni europea evidenziano la necessità di implementare misure di trasparenza che prevedano la notifica dei risultati delle azioni inerenti alle segnalazioni degli utenti.

- Ambiti di discriminazione: ciò che emerge da questo report è che nella maggior parte dei casi (33,1%) l’orientamento sessuale è l’ambito di discriminazione più frequente. Seguono la xenofobia (incluso l’odio per i migranti) con il 15% e l’antiziganismo (9,9%). Ovviamente i dati raccolti sono indicativi e sono influenzati dal numero delle notifiche mandate da ciascuna organizzazione così come dal loro ambito di azione. 

In evidenza