Transparenzbericht

Wichtige Richtlinien

Dieser Abschnitt enthält weitere Details zu Bereichen, in denen unsere automatischen Meldesysteme entscheidend dazu beitragen, Inhalte zu erkennen, die nicht richtlinienkonform sind. Sobald ein potenziell problematischer Inhalt von unseren automatischen Systemen gemeldet wurde, wird er manuell auf einen tatsächlichen Verstoß gegen unsere Richtlinien geprüft. Wenn ein Verstoß vorliegt, ergreifen unsere Prüfer geeignete Maßnahmen. Durch diese Entscheidungen werden unsere Systeme kontinuierlich für eine noch bessere Abdeckung trainiert und gestärkt.

Wichtige Richtlinien: Hassrede

Hassrede ist auf YouTube nicht zulässig. Wir entfernen Inhalte, die zu Gewalt oder Hass gegen Einzelpersonen oder Gruppen aufgrund der folgenden Attribute aufrufen: Alter, gesellschaftliche Stellung, Behinderung, ethnische Zugehörigkeit, geschlechtliche Identität, Staatsangehörigkeit, Einwanderungsstatus, Religion, Geschlecht, sexuelle Orientierung, Opfer gewalttätiger Konflikte und ihre Familienmitglieder sowie Veteranenstatus.

Das bedeutet, dass wir keine Inhalte zulassen, die Einzelpersonen oder Gruppen mit diesen Attributen entmenschlichen, in denen behauptet wird, diese Menschen seien körperlich oder geistig unterlegen oder in denen Gewalt gegen sie verherrlicht wird. Darüber hinaus erlauben wir keine Verwendung von Stereotypen, um Hass auf Grundlage dieser Attribute zu säen oder zu schüren, und keine Verleumdungen basierend auf Merkmalen wie ethnischer Zugehörigkeit oder Religion, deren Hauptzweck darin besteht, Hass zu schüren. Gemäß unseren Richtlinien ist es verboten, die vermeintliche Überlegenheit einer Gruppe gegenüber denjenigen Gruppen mit den oben genannten Attributen zu propagieren, um Gewalt, Diskriminierung, Segregation oder Ausgrenzung zu rechtfertigen. Auch sind Inhalte unzulässig, in denen gut dokumentierte Gewalttaten geleugnet werden. Weitere Informationen zu derartigen Inhalten, sind auf der Seite mit unseren Richtlinien zu Hassreden zu finden.

Wenn Inhalte, die sich gegen eine Einzelperson richten, nicht von unseren Richtlinien zu Hassreden abgedeckt werden, fallen sie oft unter die Richtlinien zu Belästigung und Gewalt. Inhalte, die Terroristen, Kriminelle oder entsprechende Organisationen verherrlichen, unterliegen unseren Richtlinien zu gewalttätigen kriminellen und terroristischen Organisationen. Bei der Prüfung der gemeldeten Inhalte werden alle Community-Richtlinien und weitere Richtlinien zugrunde gelegt. Wir beschränken die Zahlen in diesem Abschnitt auf Inhalte, die gemäß unseren Richtlinien zu Hassreden entfernt wurden.

Community-Richtlinien und Details zu deren Durchsetzung

So sorgt YouTube für die Aktualisierung und Durchsetzung seiner Richtlinien zu Hassrede

Wir möchten unserer Verantwortung gerecht werden und die YouTube-Community vor schädlichen Inhalten schützen. Einer der komplexesten Bereiche, der sich außerdem ständig verändert, ist die Hassrede. Wir überprüfen alle unsere Richtlinien systematisch und immer wieder, damit unser Einschreiten angemessen ist. Dazu arbeiten wir oft mit Experten zusammen, die uns über neue Trends informieren. Für unsere Richtlinien zu Hassrede konsultieren wir Experten für gewalttätigen Extremismus, Rassismus, Grundrechte und Meinungsfreiheit aus dem gesamten politischen Spektrum.

Nach dieser Prüfung haben wir im Juni 2019 bekanntgegeben, dass wir unsere Richtlinien zu Hassrede aktualisieren, um insbesondere Videos zu verbieten, die die Überlegenheit einer Gruppe propagieren, um Diskriminierung, Aus- oder Abgrenzung aufgrund von Attributen wie Alter, Geschlecht, ethnischer Zugehörigkeit, gesellschaftlicher Stellung, Religion, sexueller Orientierung oder Veteranenstatus zu rechtfertigen. Wir haben außerdem angekündigt, dass wir Videos entfernen, in denen gut dokumentierte Gewalttaten geleugnet werden.

Es ist schwierig, Richtlinien zu Hassrede im großen Maßstab durchzusetzen, da für die einzelnen Entscheidungen gute Kenntnisse der jeweiligen Sprache und der Zusammenhänge nötig sind. Damit wir unsere Richtlinien konsequent durchsetzen können, haben wir die linguistische Kompetenz und die Fachexpertise unseres Prüfteams erweitert. Darüber hinaus setzen wir verstärkt auf maschinelles Lernen, um mögliche Hass schürende Inhalte besser erkennen und zur manuellen Überprüfung weiterleiten zu können. Dabei wenden wir Erkenntnisse über die Durchsetzung von Richtlinien für andere Inhaltstypen an, etwa aus dem Bereich des gewalttätigen Extremismus. Dabei passieren uns ab und an auch Fehler. Creator, die der Ansicht sind, dass ihre Inhalte fälschlicherweise entfernt wurden, können deshalb Einspruch erheben. Wir überprüfen unsere Richtlinien und Auslegungskriterien fortlaufend. Dazu werden wir uns auch in Zukunft mit Experten und der Community beraten und bei Bedarf Änderungen vornehmen.

Wir entfernen aber nicht nur Inhalte, die gegen unsere Richtlinien verstoßen, sondern arbeiten auch daran, Empfehlungen grenzwertiger Inhalte zu reduzieren, die beinahe gegen unsere Richtlinien verstoßen. Außerdem haben wir seit Langem Richtlinien zur Werbefreundlichkeit, die Werbung in Videos mit Hass schürenden Inhalten untersagen. Kanäle, die wiederholt grenzwertige Inhalte veröffentlichen, die beinahe gegen unsere Richtlinien zu Hassrede verstoßen, werden aus dem YouTube-Partnerprogramm ausgeschlossen. Sie können dann keine Werbung mehr einblenden und auch keine anderen Monetarisierungsfunktionen wie Super Chat nutzen.

Pädagogische, dokumentarische, wissenschaftliche und künstlerische Inhalte: Hassrede

Bei YouTube wird Meinungsfreiheit großgeschrieben, weshalb Entscheidungen für uns oft eine Gratwanderung sind, bei der wir immer auch den Schutz unserer Community im Blick behalten. Wenn wir prüfen, ob Inhalte gemäß unseren Richtlinien zu Hassreden entfernt werden müssen, berücksichtigen wir dabei den Zweck des Videos. Wir lassen unter Umständen Inhalte mit Diskussionen zum Thema Hassrede zu, sofern sie vorrangig pädagogischen, dokumentarischen, wissenschaftlichen oder künstlerischen Zielen dienen. Wenn Nutzer Inhalte zum Thema Hassrede posten, empfehlen wir ihnen, genügend Informationen anzugeben, damit die Zuschauer den Kontext verstehen. Dies kann durch eine Einführung, Voiceover-Kommentare oder Text-Overlays sowie durch einen eindeutigen Titel und eine unmissverständliche Beschreibung geschehen. Durch die Einordnung in einen dokumentarischen oder pädagogischen Kontext können sowohl die Zuschauer als auch unsere Prüfer besser nachvollziehen, warum potenziell verstörende Inhalte in einigen Fällen auf YouTube verfügbar bleiben.

Priority Flaggers: Hassrede

Für die Durchsetzung aller unserer Richtlinien arbeiten wir mit einem Netzwerk von mehr als 300 Akademikern, Regierungsbehörden und NGOs zusammen, die wertvolles Fachwissen einbringen, unter anderem im Rahmen unseres Priority Flagger Program.

Die Teilnehmer am Priority Flagger Program werden darin geschult, wie die Community-Richtlinien von YouTube durchgesetzt werden können. Da ihre Meldungen eine höhere Aktionsrate haben als die anderer Nutzer, priorisieren wir die Überprüfung von Priority Flagger-Meldungen. Von Priority Flaggern gemeldete Inhalte unterliegen denselben Richtlinien wie die von anderen Nutzern und werden von unseren geschulten Teams geprüft. Diese entscheiden, ob die betreffenden Inhalte gegen unsere Community-Richtlinien verstoßen und entfernt werden müssen.

Beispiele für die Vorgehensweise bei gemeldeten Videos: Hassrede

Die folgenden Beispiele beziehen sich auf Videos, die aufgrund eines vermeintlichen Verstoßes gegen unsere Community-Richtlinien gemeldet wurden. Sie bieten einen Einblick in die vielfältigen Inhalte, die uns gemeldet werden. Diese Auflistung ist jedoch nicht vollständig.

Beschwerdegrund
Hasserfüllter oder beleidigender Inhalt
Art des Melders
Priority Flagger
Videobeschreibung
Video, in dem das Gesicht einer minderjährigen Person auf dem Körper einer anderen Person zu sehen ist. Im Audio wird angedeutet, dass die minderjährige Person homosexuell ist.
Ergebnis
Das Video verstößt gegen Richtlinien zu Belästigung und Cybermobbing, die Inhalte untersagen, durch die Minderjährige erniedrigt, getäuscht oder beleidigt werden sollen. Der Kanal wurde entfernt.
Beschwerdegrund
Hasserfüllter oder beleidigender Inhalt
Art des Melders
Nutzer
Videobeschreibung
Ein Video, in dem behauptet wird, dass die Angriffe auf zwei Moscheen im März 2019 in Christchurch, Neuseeland, Fake News seien.
Ergebnis
Das Video verstößt gegen die Richtlinien zu Hassrede, weil darin gut dokumentierte Gewalttaten geleugnet werden. Das Video wurde entfernt.
Beschwerdegrund
Hasserfüllter oder beleidigender Inhalt
Art des Melders
Nutzer
Videobeschreibung
Ein Video mit einem Song, in dessen Text zu Gewalt gegen eine Gruppe mit einer bestimmten ethnischen Zugehörigkeit aufgerufen wird.
Ergebnis
Das Video verstößt gegen die Richtlinien zu Hassrede, da es zu Gewalt gegen Personen aufgrund ihrer ethnischen Herkunft aufruft. Aus diesem Grund wurde es entfernt.
Beschwerdegrund
Hasserfüllter oder beleidigender Inhalt
Art des Melders
Nutzer
Videobeschreibung
Ein Video zu einem Hundekampf, bei dem die Tiere leiden.
Ergebnis
Der Inhalt verstößt gegen die Richtlinien zu Tierquälerei in Bezug auf gewaltsame oder abstoßende Inhalte und wurde daher entfernt.
Beschwerdegrund
Hasserfüllter oder beleidigender Inhalt
Art des Melders
Nutzer
Videobeschreibung
Ein Video einer medizinischen Organisation, in dem Symptome und Diagnose der Lyme-Borreliose besprochen werden.
Ergebnis
Der Inhalt hat unsere Richtlinien nicht verletzt. Wir sind nicht dagegen vorgegangen.

YouTube-Community-Richtlinien und ihre Anwendung

Menschen auf der ganzen Welt nutzen YouTube, um ihre Ideen und Meinungen zu teilen. Der Ansatz von YouTube beim Thema Verantwortung beinhaltet die vier „R“: „Remove violative content“ (richtlinienwidrige Inhalte entfernen), „Raise authoritative voices“ (vertrauenswürdig sein), „Reduce recommendations of borderline content“ (Empfehlungen für grenzwertige Inhalte reduzieren) und „Reward trusted creators“ (vertrauenswürdige Creators belohnen).

Weitere Informationen unter „Hast du dich schon einmal gefragt, wie YouTube funktioniert?“