Rapporto sulla trasparenza

Norme in primo piano

Questa sezione fornisce ulteriori dettagli su alcune delle aree normative in cui i nostri sistemi di segnalazione automatica sono fondamentali per rilevare contenuti in violazione. Dopo la segnalazione di contenuti potenzialmente problematici da parte dei nostri sistemi automatici, un revisore verifica se i contenuti violano effettivamente le nostre norme e adotta le misure appropriate. Queste decisioni consentono di addestrare e rafforzare continuamente i nostri sistemi per migliorare la futura copertura.

Norme in primo piano: Estremismo violento

I contenuti che violano le nostre norme contro l'estremismo violento includono materiale prodotto da organizzazioni terroristiche straniere elencate dal governo. Non consentiamo alle organizzazioni terroristiche di utilizzare YouTube per qualsiasi scopo, incluso il reclutamento. YouTube proibisce inoltre severamente i contenuti che promuovono il terrorismo, come contenuti che esaltano atti terroristici o incitano alla violenza. Consentiamo la condivisione di contenuti per finalità educative, documentaristiche, scientifiche o artistiche.

I contenuti prodotti da gruppi estremisti violenti, che non sono tra le organizzazioni terroristiche straniere elencate dal governo, sono spesso coperti dalle nostre norme contro la pubblicazione di contenuti offensivi oppure violenti o espliciti, compresi contenuti ideati principalmente per essere scioccanti, sensazionali o ingiustificati. I revisori valutano i contenuti segnalati in base a tutte le Norme della community e le norme generali. Le cifre riportate in questa sezione riguardano soltanto i contenuti rimossi per violazione della nostra norma sull'estremismo violento.

Numero totale di video rimossi
328.021

Norme della community e dettagli sull'applicazione

In che modo YouTube usa la tecnologia per rilevare contenuti in violazione: estremismo violento

YouTube ha sviluppato dei sistemi automatici che contribuiscono al rilevamento di contenuti che potrebbero violare le nostre norme. Dopo la segnalazione di contenuti potenzialmente problematici da parte dei nostri sistemi automatici, tramite una revisione umana viene verificato che i contenuti violino effettivamente le nostre norme. In caso di violazione, i contenuti vengono rimossi utilizzati per migliorare la futura copertura dei nostri sistemi. L'account che ha pubblicato i contenuti generalmente riceve un avvertimento e più avvertimenti portano alla chiusura dell'account. Per quanto riguarda i sistemi automatici che rilevano contenuti estremisti, gli oltre tre milioni di video esaminati manualmente dai nostri team forniscono grandi volumi di esempi formativi, che consentono di migliorare la tecnologia di segnalazione tramite machine learning.

Il machine learning ci aiuta a rimuovere i contenuti estremisti prima che vengano visti da tanti utenti. I grossi investimenti fatti per contrastare questo tipo di contenuti stanno sortendo un effetto: nel periodo compreso tra aprile e giugno 2022, circa il 95% dei video rimossi per violazione delle nostre norme relative all'estremismo violento è stato prima segnalato automaticamente.

Condivisione di hash: estremismo violento

YouTube utilizza la tecnologia per evitare i ricaricamenti di contenuti di cui è già stata accertata la violazione prima che questi contenuti diventino disponibili pubblicamente. Usiamo da molto tempo questa tecnologia per impedire la diffusione di immagini pedopornografiche sulla piattaforma. Nel 2016, in collaborazione con partner del settore, abbiamo creato un database per la condivisione di hash, in cui condividiamo hash (impronte digitali o "fingerprint") di contenuti di natura terroristica per interromperne la diffusione. Al momento il database condiviso contiene più di 400.000 hash univoci che sono quasi identici all'occhio umano.

La vasta raccolta multimediale e i sistemi di rilevamento automatico di YouTube ci consentono di contribuire al database per la condivisione di hash con un elevato numero di hash. In conformità ai criteri di condivisione stabiliti dal Global Internet Forum to Counter Terrorism, nel 2023 YouTube ha contribuito al database per la condivisione di hash con oltre 45.000 hash univoci.

Dopo aver assegnato hash ai contenuti, altre piattaforme possono usare questi hash per contribuire a rilevare contenuti correlati sulle loro piattaforme e valutarli in base alle loro norme relative ai contenuti. Dal 2017, il numero di società che contribuiscono a questo database e ne beneficiano è aumentato da 4 a 13. Questo impegno organizzato è ora gestito formalmente dal GIFCT (Global Internet Forum to Counter Terrorism).

Forum Internet globale per contrastare il terrorismo: estremismo violento

Nel 2017, YouTube, Facebook, Microsoft e Twitter si sono associate per fondare il Global Internet Forum to Counter Terrorism (GIFCT) allo scopo di arrestare l'abuso delle piattaforme digitali delle società del gruppo da parte dei terroristi. Le nostre società condividono best practice per la lotta al terrorismo da diversi anni, ma il GIFCT ha fornito una struttura più formale per velocizzare e rafforzare questo impegno e costituire un fronte unito contro la divulgazione di contenuti di natura terroristica online. In collaborazione con l'iniziativa Tech Against Terrorism, il GIFCT organizza dei workshop globali per società operanti nel settore tecnologico, organizzazioni non governative ed enti governativi internazionali.

Dato che il database per la condivisione di hash viene usato da diversi membri e partner del settore, era necessaria una posizione condivisa di base in merito a quali contenuti fossero da ritenere estremisti e di natura terroristica per l'esame e la condivisione di hash dei contenuti. Come indicato nel Report sulla trasparenza annuale del 2021 del GIFCT, "l'ambito originale del database per la condivisione di hash è limitato ai contenuti relativi alle organizzazioni nell'Elenco consolidato delle sanzioni del Consiglio di sicurezza delle Nazioni Unite".

YouTube e altri membri fondatori del GIFCT hanno aderito alla Christchurch Call to Eliminate Terrorist and Violent Extremist Content Online. Partendo dalla Christchurch Call, il GIFCT ha sviluppato un nuovo protocollo CIP (Content Incident Protocol), per consentire alle società che fanno parte del GIFCT di rispondere in modo efficiente ai contenuti trasmessi in live streaming creati dagli autori di eventi violenti nel mondo reale. Questo protocollo è stato testato e si è rivelato efficace, ad esempio in seguito all'attacco a una sinagoga di Halle in Germania (ottobre 2019), a una sparatoria a Glendale in Arizona, USA (maggio 2020), a una sparatoria a Buffalo nello stato di New York, USA (giugno 2022), e a una sparatoria a Memphis in Tennessee, USA (settembre 2022). Dalla creazione del CIP, il GIFCT ha continuato a sviluppare il proprio quadro di reazione agli incidenti, includendo un nuovo livello di incidenti di contenuto per rispondere anche a video e immagini trasmessi offline e creati da criminali per mostrare eventi reali. Questo livello è stato attivato per la prima volta in seguito a un attacco a Udaipur, Rajasthan, India (luglio 2022).

Il GIFCT si è evoluto in un'organizzazione autonoma con direttore esecutivo e personale indipendenti. La struttura del GIFCT include anche un comitato consultivo indipendente composto da rappresentanti del governo e membri non governativi, tra cui gruppi di patrocinio, esperti in diritti umani, ricercatori ed esperti tecnici. Nell'ambito della nuova struttura di governance dell'ente, YouTube ricopre una posizione nel consiglio d'amministrazione operativo del GIFCT.

Contenuti con finalità educative, documentaristiche, scientifiche e artistiche: estremismo violento

Se gli utenti pubblicano contenuti relativi al terrorismo per finalità educative, documentaristiche, scientifiche o artistiche, li invitiamo a fornire agli spettatori informazioni sufficienti per capire il contesto. Non è consentito pubblicare contenuti violenti o cruenti ideati per essere scioccanti, sensazionali o ingiustificati. Se un video è particolarmente crudo o sconvolgente, deve essere bilanciato con informazioni e contesto aggiuntivi che consentano agli spettatori di capire cosa stanno vedendo, ad esempio tramite un'introduzione, commenti fuori campo oppure overlay di testo, nonché tramite una descrizione e un titolo chiari. L'indicazione di un contesto documentaristico o educativo può consentire allo spettatore e ai nostri revisori di capire perché a volte i contenuti potenzialmente sconvolgenti rimangono pubblicati su YouTube. Ad esempio, un video del pestaggio di alcuni dimostranti girato da un giornalista partecipativo e caricato con informazioni pertinenti (data, luogo, contesto ecc.) sarebbe probabilmente consentito. La pubblicazione dello stesso video senza informazioni contestuali o educative potrebbe invece essere considerata ingiustificata e il video potrebbe quindi essere rimosso dal sito. I video crudi o discutibili potrebbero essere soggetti a limitazioni di età o alla visualizzazione di una schermata di avviso.

Segnalatori prioritari: estremismo violento

Nell'ambito di tutte le nostre aree normative investiamo costantemente nella rete di oltre 300 partner statali e ONG che mettono la loro preziosa esperienza al servizio dei nostri sistemi di applicazione delle norme, ad esempio tramite il nostro programma Priority Flagger. I partecipanti al programma Priority Flagger ricevono formazione in merito all'applicazione delle Norme della community di YouTube e, dato che le loro segnalazioni hanno un tasso di azione più elevato rispetto a quello dell'utente medio, controlliamo prima queste segnalazioni. I partecipanti al programma Priority Flagger hanno una linea di comunicazione diretta con i nostri team Trust & Safety per una risoluzione dei problemi più rapida. I contenuti indicati dai Segnalatori prioritari sono soggetti alle stesse norme di quelli segnalati da qualsiasi altro utente e vengono esaminati dai nostri team, appositamente formati per prendere decisioni in merito alla violazione o meno delle Norme della community e alla rimozione dei contenuti.

Esempi di procedure relative ai video segnalati: Estremismo violento

Di seguito sono riportati esempi di video che sono stati segnalati per presunte violazioni delle nostre Norme della community. Questi esempi danno un'idea della varietà di segnalazioni di contenuti che riceviamo e non sono completi.

Motivo della segnalazione
Di natura sessuale
Tipo di segnalatore
Segnalatore prioritario
Descrizione del video
Un video che mostra un minorenne coinvolto in un atto sessuale.
Risultato
Il video viola le norme sulla tutela dei minori che vietano i contenuti che includono la sessualizzazione di minorenni, pertanto il canale è stato rimosso.
Motivo della segnalazione
Maltrattamento di minori
Tipo di segnalatore
Segnalatore prioritario
Descrizione del video
Un video che mostra un minorenne in atti non sessuali, ma con un titolo che sessualizza il minorenne.
Risultato
Il video viola le norme sulla tutela dei minori che vietano i contenuti che includono la sessualizzazione di minorenni, pertanto il canale è stato rimosso.
Motivo della segnalazione
Offensivi o che incitano all'odio
Tipo di segnalatore
Segnalatore prioritario
Descrizione del video
Un video che mostra un minorenne con il volto sul corpo di un'altra persona, il cui audio lascia intendere che il minorenne sia omosessuale.
Risultato
Il video viola le norme su molestie e cyberbullismo che vietano i contenuti che hanno l'intento di infamare, ingannare o insultare un minorenne, pertanto il canale è stato rimosso.
Motivo della segnalazione
Maltrattamento di minori
Tipo di segnalatore
Segnalatore prioritario
Descrizione del video
Un video che reclamizzava immagini di natura sessuale di minorenni a scuola.
Risultato
Il video viola le norme sulla tutela dei minori che vietano i contenuti che includono la sessualizzazione di minorenni, pertanto il canale è stato rimosso.
Motivo della segnalazione
Offensivi o che incitano all'odio
Tipo di segnalatore
utente
Descrizione del video
Video in cui si afferma che le sparatorie avvenute nel marzo 2019 nella moschea di Christchurch in Nuova Zelanda erano false.
Risultato
Il video viola le norme sull'incitamento all'odio che proibiscono contenuti che negano il verificarsi di eventi violenti ben documentati. Il video è stato rimosso.

Applicazione delle Norme della community di YouTube

Spettatori e creator di tutto il mondo usano YouTube per esprimere le proprie idee e opinioni. L'approccio di YouTube alla responsabilità prevede quattro fasi: rimuovere i contenuti in violazione, dare spazio a voci autorevoli, ridurre i consigli di contenuto che rappresenta un caso limite e premiare i creator attendibili.

Scopri di più sul sito Come funziona YouTube