Transparenzbericht

Wichtige Richtlinien

Dieser Abschnitt enthält weitere Details zu Bereichen, in denen unsere automatischen Meldesysteme entscheidend dazu beitragen, Inhalte zu erkennen, die nicht richtlinienkonform sind. Sobald ein potenziell problematischer Inhalt von unseren automatischen Systemen gemeldet wurde, wird er manuell auf einen tatsächlichen Verstoß gegen unsere Richtlinien geprüft. Wenn ein Verstoß vorliegt, ergreifen unsere Prüfer geeignete Maßnahmen. Durch diese Entscheidungen werden unsere Systeme kontinuierlich für eine noch bessere Abdeckung trainiert und gestärkt.

Wichtige Richtlinien: Gewalttätiger Extremismus

Zu den Inhalten, die gegen unsere Richtlinien zu gewalttätigem Extremismus verstoßen, zählt Material, das von Organisationen produziert wurde, die von staatlichen Stellen als terroristisch eingestuft werden. Jegliche Nutzung von YouTube durch terroristische Organisationen, unter anderem zur Rekrutierung, wird von uns unterbunden. Inhalte, die Terrorismus fördern, sind auf YouTube ebenfalls strengstens untersagt. Hierzu zählen beispielsweise Inhalte, in denen terroristische Akte verherrlicht werden oder zu Gewalthandlungen aufgerufen wird. Von uns zugelassen werden Inhalte, die in einem pädagogischen, dokumentarischen, wissenschaftlichen oder künstlerischen Kontext geteilt werden.

Inhalte, die von gewalttätigen extremistischen Gruppen produziert werden, bei denen es sich nicht um ausländische Organisationen handelt, die von staatlichen Stellen als terroristisch eingestuft werden, unterliegen unseren Richtlinien gegen das Posten von hasserfüllten oder gewalttätigen oder grausamen Inhalten. Dies schließt Inhalte ein, die vorrangig in schockierender, effekthascherischer oder respektloser Art und Weise gestaltet sind. Bei der Prüfung der gemeldeten Inhalte werden alle Community-Richtlinien und weitere Richtlinien zugrunde gelegt. Wir beschränken die Zahlen in diesem Abschnitt auf Inhalte, die aufgrund unserer Richtlinien zu gewalttätigem Extremismus entfernt werden.

Gesamtzahl der entfernten Videos
328.021

Community-Richtlinien und Details zu deren Durchsetzung

So erkennt YouTube mithilfe von Technologie Inhalte, die gegen Richtlinien verstoßen: Gewalttätiger Extremismus

YouTube hat automatische Systeme entwickelt, die uns bei der Erkennung von Inhalten unterstützen, die möglicherweise nicht richtlinienkonform sind. Sobald ein potenziell problematischer Inhalt von unseren automatisierten Systemen gemeldet wurde, wird manuell überprüft, ob er tatsächlich gegen unsere Richtlinien verstößt. Falls ja, wird der Inhalt entfernt und zum Trainieren unserer Systeme verwendet, um deren Genauigkeit kontinuierlich zu verbessern. Das Konto, von dem der Inhalt gepostet wurde, erhält im Allgemeinen eine Verwarnung. Mehrere Verwarnungen haben eine Kontokündigung zur Folge. Für unsere automatisierten Systeme zur Erkennung extremistischer Inhalte haben wir durch die mehr als drei Millionen manuell von unseren Teams überprüften Videos sehr viele Trainingsbeispiele zur Verbesserung unserer Meldetechnologie erhalten, die auf dem Prinzip des maschinellen Lernens beruht.

Dank maschinellem Lernen können wir jetzt extremistische Inhalte entfernen, bevor sie von einer großen Anzahl von Nutzern gesehen werden. Unsere umfassenden Investitionen in die Bekämpfung dieser Art von Inhalten zeigt Wirkung: Zwischen April und Juni 2022 wurden etwa 95 % der Videos, die wegen eines Verstoßes gegen unsere Richtlinie zu gewalttätigem Extremismus entfernt wurden, zuerst automatisch gemeldet.

Weitergabe von Hashes: Gewalttätiger Extremismus

YouTube nutzt Technologien, um zu verhindern, dass Inhalte, die bekanntermaßen gegen unsere Richtlinien verstoßen, erneut hochgeladen werden, sodass diese Inhalte nicht öffentlich verfügbar werden. Wir setzen diese Technologien schon seit Langem ein, um die Verbreitung von Darstellungen des sexuellen Missbrauchs von Kindern auf der Plattform zu verhindern. 2016 haben wir mit Partnern aus der Branche eine Datenbank zur Weitergabe von Hashes (oder „digitalen Fingerabdrücken“) von terroristischen Inhalten ins Leben gerufen, um deren Verbreitung zu stoppen. Diese gemeinsame Datenbank enthält derzeit mehr als 400.000 eindeutige Hashes, die für das menschliche Auge kaum zu unterscheiden sind.

Aufgrund der umfangreichen Medienbibliothek und der automatisierten Erkennungssysteme von YouTube liefern wir große Mengen von Hashes an die Hash-Datenbank. Gemäß den Weitergabekriterien des Global Internet Forum to Counter Terrorism hat YouTube im Jahr 2023 mehr als 45.000 eindeutige Hashes an die Hash-Datenbank geliefert.

Nachdem Inhalte gehasht wurden, können andere Plattformen diese Hashes verwenden, um die damit verbundenen Inhalte auf ihren Plattformen besser zu erkennen und anhand ihrer eigenen Inhaltsrichtlinien zu bewerten. Seit 2017 ist die Anzahl der Unternehmen, die zu dieser Datenbank beitragen und davon profitieren, von 4 auf 13 gestiegen. Dieses Projekt wird jetzt offiziell vom Global Internet Forum to Counter Terrorism (GIFCT) verwaltet.

Global Internet Forum to Counter Terrorism: Gewalttätiger Extremismus

Im Jahr 2017 gründeten YouTube, Facebook, Microsoft und Twitter das Global Internet Forum to Counter Terrorism (GIFCT), um gemeinsam den Missbrauch ihrer digitalen Plattformen durch Terroristen zu unterbinden. Unsere Unternehmen teilen schon seit mehreren Jahren Best Practices für die Terrorismusbekämpfung, aber das GIFCT sorgt für eine formellere Struktur zur Beschleunigung und Unterstützung dieser Arbeit sowie zur Bildung einer gemeinsamen Front gegen die Online-Verbreitung von terroristischen Inhalten. In Zusammenarbeit mit der Initiative „Tech Against Terrorism“ veranstaltet das GIFCT globale Workshops für Technologieunternehmen, Nichtregierungsorganisationen und internationale Behörden.

Da die Hash-Datenbank von unterschiedlichen Mitgliedern und Partnern aus der Branche verwendet wird, musste ein grundlegender Konsens darüber erzielt werden, was eigentlich terroristische und extremistische Inhalte sind, damit Hashes von Inhalten geprüft und geteilt werden können. Wie im jährlichen Transparenzbericht des GIFCT aus dem Jahr 2021 angemerkt, beschränkt sich der ursprüngliche Umfang der Hash-Datenbank auf Inhalte mit Bezug zu Organisationen, die auf der vom Sicherheitsrat der Vereinten Nationen erstellten Sanktionsliste stehen.

YouTube und die anderen Gründungsmitglieder des GIFCT unterstützen den Christchurch Call zur Unterbindung terroristischer und gewalttätiger extremistischer Inhalte im Internet. Anlässlich des Christchurch Call entwickelte das GIFCT ein neues Content Incident Protocol (CIP), mit dem GIFCT-Mitglieder nach einem realen gewalttätigen Ereignis effizient auf von Tätern erstellte Livestreams reagieren können. Dieses Protokoll kam bereits in mehreren Fällen erfolgreich zum Einsatz, unter anderem nach dem Angriff auf eine Synagoge in Halle (Oktober 2019), nach einer Schießerei in Glendale, Arizona, USA (Mai 2020), nach einer Schießerei in Buffalo, New York, USA (Juni 2022), und einer Schießerei in Memphis, Tennessee, USA (September 2022). Seit der Entwicklung des CIP erweiterte das GIFCT sein Verfahren zur Reaktion auf Vorfälle um eine inhaltliche Ebene, um auch auf nicht live gestreamte, von Tätern produzierte Videos und Bilder reagieren zu können, die das gewalttätige Ereignis darstellen. Dies wurde erstmals nach einem Angriff in Udaipur, Rajasthan, Indien (Juli 2022) aktiviert.

Das GIFCT hat sich zu einer eigenständigen Organisation mit einem unabhängigen Geschäftsführer und eigenen Mitarbeitern entwickelt. Außerdem gehört ein unabhängiger Beratungsausschuss dazu, der aus Vertretern von Behörden und Nichtregierungsorganisationen besteht und Interessenvertreter, Menschenrechtsbeauftragte, Forscher und technische Experten umfasst. Innerhalb der neuen Führungsstruktur der Institution hat YouTube eine Position im Vorstand des GIFCT inne.

Pädagogische, dokumentarische, wissenschaftliche und künstlerische Inhalte: Gewalttätiger Extremismus

Wenn Nutzer zu pädagogischen, dokumentarischen, wissenschaftlichen oder künstlerischen Zwecken Inhalte posten, die sich auf Terrorismus beziehen, empfehlen wir ihnen, genügend Informationen bereitzustellen, damit die Zuschauer den Kontext verstehen. Es dürfen keine gewalttätigen oder blutigen Inhalte gepostet werden, die vorrangig in schockierender, effekthascherischer oder respektloser Art und Weise gestaltet sind. Für Videos mit besonders grausamen oder aufwühlenden Inhalten sollten Hintergrundinformationen und zusätzlicher Kontext angegeben werden, damit die Zuschauer verstehen, was genau sie sehen. Dies kann durch eine Einführung, Voiceover-Kommentare oder Text-Overlays sowie durch einen eindeutigen Titel und eine unmissverständliche Beschreibung geschehen. Durch die Einordnung in einen dokumentarischen oder pädagogischen Kontext können die Zuschauer und unsere Prüfer besser nachvollziehen, warum potenziell verstörende Inhalte in einigen Fällen auf YouTube verfügbar bleiben. Wenn ein Zeitzeuge beispielsweise Videos von Demonstranten aufnimmt, die geschlagen werden, und diese mit relevanten Informationen wie Datum, Ort und Kontext hochlädt, werden diese wahrscheinlich zugelassen. Wenn dasselbe Material ohne Kontext oder informative Angaben hochgeladen wird, könnte das Video hingegen als unnötige Gewaltdarstellung erachtet und von der Website entfernt werden. Videos mit grausamen oder umstrittenen Inhalten können Altersbeschränkungen unterliegen oder es muss eine Warnung eingeblendet werden.

Priority Flaggers: Gewalttätiger Extremismus

Für die Durchsetzung aller unserer Richtlinien arbeiten wir mit einem Netzwerk von mehr als 300 Regierungsbehörden und NGOs zusammen, die wertvolles Fachwissen einbringen, unter anderem im Rahmen unseres Priority Flagger Program. Die Teilnehmer am Priority Flagger Program werden darin geschult, wie die Community-Richtlinien von YouTube durchgesetzt werden können. Da ihre Meldungen eine höhere Aktionsrate haben als die anderer Nutzer, priorisieren wir die Überprüfung von Priority Flagger-Meldungen. Teilnehmer des Priority Flagger Program können direkt mit unseren Trust & Safety-Teams kommunizieren, um schnellere Ergebnisse zu erzielen. Von Priority Flaggern gemeldete Inhalte unterliegen denselben Richtlinien wie die von anderen Nutzern und werden von unseren geschulten Teams geprüft. Diese entscheiden, ob die betreffenden Inhalte gegen unsere Community-Richtlinien verstoßen und entfernt werden müssen.

Beispiele für die Vorgehensweise bei gemeldeten Videos: Gewalttätiger Extremismus

Die folgenden Beispiele beziehen sich auf Videos, die aufgrund eines vermeintlichen Verstoßes gegen unsere Community-Richtlinien gemeldet wurden. Sie bieten einen Einblick in die vielfältigen Inhalte, die uns gemeldet werden. Diese Auflistung ist jedoch nicht vollständig.

Beschwerdegrund
Sexueller Inhalt
Art des Melders
Priority Flagger
Videobeschreibung
Video, in dem eine minderjährige Person bei einer sexuellen Handlung zu sehen ist.
Ergebnis
Das Video verstößt gegen Richtlinien zum Schutz von Kindern, die Inhalte untersagen, in denen Minderjährige sexualisiert werden. Der Kanal wurde entfernt.
Beschwerdegrund
Kindesmissbrauch
Art des Melders
Priority Flagger
Videobeschreibung
Video, in dem eine minderjährige Person bei nicht sexuellen Aktivitäten zu sehen sind, mit einem Videotitel, durch den sie sexualisiert wird.
Ergebnis
Das Video verstößt gegen Richtlinien zum Schutz von Kindern, die Inhalte untersagen, in denen Minderjährige sexualisiert werden. Der Kanal wurde entfernt.
Beschwerdegrund
Hasserfüllter oder beleidigender Inhalt
Art des Melders
Priority Flagger
Videobeschreibung
Video, in dem das Gesicht einer minderjährigen Person auf dem Körper einer anderen Person zu sehen ist. Im Audio wird angedeutet, dass die minderjährige Person homosexuell ist.
Ergebnis
Das Video verstößt gegen Richtlinien zu Belästigung und Cybermobbing, die Inhalte untersagen, durch die Minderjährige erniedrigt, getäuscht oder beleidigt werden sollen. Der Kanal wurde entfernt.
Beschwerdegrund
Kindesmissbrauch
Art des Melders
Priority Flagger
Videobeschreibung
Video, in dem Minderjährige in der Schule aufgefordert werden, Bilder mit sexuellen Inhalten anzufertigen.
Ergebnis
Das Video verstößt gegen Richtlinien zum Schutz von Kindern, die Inhalte untersagen, in denen Minderjährige sexualisiert werden. Der Kanal wurde entfernt.
Beschwerdegrund
Hasserfüllter oder beleidigender Inhalt
Art des Melders
Nutzer
Videobeschreibung
Ein Video, in dem behauptet wird, dass die Angriffe auf zwei Moscheen im März 2019 in Christchurch, Neuseeland, Fake News seien.
Ergebnis
Das Video verstößt gegen die Richtlinien zu Hassrede, weil darin gut dokumentierte Gewalttaten geleugnet werden. Das Video wurde entfernt.

YouTube-Community-Richtlinien und ihre Anwendung

Menschen auf der ganzen Welt nutzen YouTube, um ihre Ideen und Meinungen zu teilen. Der Ansatz von YouTube beim Thema Verantwortung beinhaltet die vier „R“: „Remove violative content“ (richtlinienwidrige Inhalte entfernen), „Raise authoritative voices“ (vertrauenswürdig sein), „Reduce recommendations of borderline content“ (Empfehlungen für grenzwertige Inhalte reduzieren) und „Reward trusted creators“ (vertrauenswürdige Creators belohnen).

Weitere Informationen unter „Hast du dich schon einmal gefragt, wie YouTube funktioniert?“