Transparenzbericht

Entfernungen von Inhalten nach dem Netzwerkdurchsetzungsgesetz

Am 1. Oktober 2017 trat in Deutschland das Netzwerkdurchsetzungsgesetz (NetzDG) in Kraft. Danach sollten soziale Netzwerke ein wirksames und transparentes Verfahren zur Bearbeitung von Beschwerden über rechtswidrige Inhalte im Sinne des NetzDG vorhalten und halbjährlich einen Transparenzbericht veröffentlichen. Aufgrund des Anwendungsvorrangs des Digital Services Acts (DSA) der Europäischen Union bleibt das NetzDG jedoch für YouTube jedenfalls ab dem 25. August 2023 unangewendet.

Die hier weiter vorgehaltenen Berichte enthalten Angaben zur Organisation, zum Verfahren sowie über die Anzahl der Beschwerden und entfernten Inhalte. Ferner enthalten sie allgemeine Informationen über die Verfahren und Richtlinien von Google und YouTube zur Entfernung von Inhalten. Dabei ist zu beachten, dass die hier abrufbaren Berichte nicht den aktuellen Stand darstellen und Informationen veraltet sein können.

Entfernungen von Inhalten aus YouTube auf der Grundlage des NetzDG

Das Netzwerkdurchsetzungsgesetz (im Folgenden NetzDG) verpflichtet soziale Netzwerke mit mehr als 2 Millionen registrierten Nutzern in Deutschland, „offensichtlich rechtswidrige“ Inhalte (z. B. ein Video oder einen Kommentar) nach Erhalt einer Beschwerde über rechtswidrige Inhalte nach dem NetzDG (im Folgenden nur „Beschwerde“ oder „NetzDG-Beschwerde“) innerhalb von 24 Stunden zu entfernen oder zu sperren. Ist die Rechtswidrigkeit nicht offensichtlich, hat der Anbieter in der Regel bis zu sieben Tage Zeit, um über den Fall zu entscheiden. In Ausnahmefällen darf es länger dauern, z. B. wenn die Inhalte einstellenden Nutzer, also diejenigen Nutzer, für die Videos oder Kommentare auf YouTube gespeichert werden (im Folgenden „Uploader“), aufgefordert werden, eine Stellungnahme bezüglich des von ihnen eingestellten Inhalts abzugeben, oder wenn der Fall an eine Einrichtung der Regulierten Selbstregulierung zur Entscheidung weitergeleitet wird. Um in den Anwendungsbereich des NetzDG zu fallen, muss der Inhalt unter einen der 22 Straftatbestände des Strafgesetzbuches (StGB) fallen, auf die das NetzDG verweist (§ 1 Abs. 3 NetzDG). Wir prüfen alle Beschwerden anhand der in § 1 Abs. 3 NetzDG genannten Straftatbestände. Wenn wir den Inhalt als rechtswidrig im Sinne dieser Vorschrift einstufen, sperren wir ihn lokal. Wenn der Inhalt erkennbar gegen unsere eigenen, weltweit geltenden YouTube-Community-Richtlinien verstößt, entfernen wir ihn weltweit.

Durch das Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität wurde das inhaltliche Gepräge einzelner, bereits in § 1 Abs. 3 NetzDG aufgelisteter Straftatbestände erweitert. So wurden etwa die Tatbestände des § 126 (Störung des öffentlichen Friedens durch Androhung von Straftaten) und § 140 (Belohnung und Billigung von Straftaten) durch Einbeziehung der gefährlichen Körperverletzung (§ 224) erweitert. Zudem wurde am 1. Februar 2022 der Katalog des § 1 Abs. 3 NetzDG um den Tatbestand des § 189 (Verunglimpfen des Andenkens Verstorbener) ergänzt. Diese Erweiterungen und Ergänzungen führen weitere unbestimmte Rechtsbegriffe in die vorzunehmenden Prüfungen ein, die zusätzlich das Risiko von Fehlentscheidungen erhöhen.

Das NetzDG verpflichtet soziale Netzwerke auch, halbjährlich einen Bericht über den Umgang mit solchen Beschwerden (Transparenzbericht) zu erstellen und veröffentlichen. Dieser Verpflichtung kommen wir durch Veröffentlichung dieses Transparenzberichts nach. Wir aktualisieren diesen Bericht jeweils für die Zeiträume von Januar bis Juni sowie von Juli bis Dezember eines Jahres. Der hier verfügbare, veröffentlichte Bericht umfasst den jeweils vorangegangenen Berichtszeitraum, ermöglicht aber auch die Einsicht in Daten aus früheren Berichtszeiträumen. Die jeweils aktuelle Fassung ist auch am Ende des Berichts noch einmal zum Herunterladen verlinkt.

Allgemeine Ausführungen zum Umgang mit angeblich rechtswidrigen Inhalten

Heute werden jede Minute über 500 Stunden Videomaterial auf YouTube hochgeladen, was die Plattform zu einer der größten existierenden Sammlungen menschlichen Schaffens macht, die jemals an einem Ort zusammengetragen wurde; und zu einer Gemeinschaft, in der Menschen auf der ganzen Welt Ideen und Meinungen entwickeln und austauschen können. YouTube muss sicherstellen, dass sich die Nutzer an Regeln halten, die dem Schutz und der Erhaltung dieser Gemeinschaft dienen. Unsere Community-Richtlinien verbieten bestimmte Kategorien von Inhalten, einschließlich sexueller Inhalte, Spam, Hassrede, Belästigung und Anstiftung zur Gewalt. Verstößt ein gemeldeter Inhalt gegen unsere Community-Richtlinien, so entfernen wir ihn weltweit. Mit einem „Mensch + Maschine“-Ansatz hat YouTube erhebliche Fortschritte bei der Durchsetzung der Community-Richtlinien gemacht. Um mehr zu erfahren, lesen Sie bitte unseren Bericht zu den YouTube Community-Richtlinien und ihrer Durchsetzung.

Wir halten uns an deutsche und andere lokale Gesetze. Wenn wir Beschwerden bezüglich angeblich rechtswidriger Inhalte erhalten, prüfen wir diese sorgfältig. Verstoßen sie gegen ein lokales Gesetz, werden die von uns als rechtswidrig eingestuften Inhalte lokal gesperrt. Dies ist derselbe Ansatz, den wir auch bei allen anderen rechtlichen Anfragen zur Entfernung von Inhalten verfolgen. Wie wir in diesem Bericht ausführlich darlegen, kann die Entscheidung, ob Inhalte nach lokalen Gesetzen rechtswidrig sind, eine äußerst komplexe rechtliche Analyse erfordern.

Die Bestrebungen von YouTube, eine engagierte globale Online-Community aufzubauen, können ohne die Bemühungen von bereichsübergreifenden Teams aus Spezialisten für unsere Richtlinien, Juristen, Softwareentwicklern, Produktmanagern, Datenanalysten, Prüfern für Inhalte, operativen Analysten, Spezialisten für bestimmte Bedrohungsszenarien und vielen anderen nicht gelingen. Darüber hinaus spielen die Hinweise und Anregungen der weltweiten Gemeinschaft von Nutzern, zivilgesellschaftlichen Organisationen, Regierungen und Industriepartnern – einschließlich anderer Technologieunternehmen – eine wichtige Rolle bei der Gestaltung von YouTube als Plattform, die für Nutzer und Uploader auf der ganzen Welt verfügbar ist.

Anzahl der im Berichtszeitraum gemeldeten Inhalte

Die hier aufgeführten Angaben betreffen nur Beschwerden über vermeintlich rechtswidrige Inhalte im Sinne des § 1 Abs. 3 NetzDG (nicht jedoch Meldungen, die über Meldewege eingehen, die eindeutig nicht zu einer Bewertung nach dem NetzDG führen).

Der Begriff der Beschwerde in diesem Bericht bezieht sich auf einzelne Inhalte. Sofern mehrere Inhalte Gegenstand einer NetzDG-Beschwerde sind (z. B. mehrere Videos oder Kommentare), zählen wir jeweils eine Beschwerde pro Inhalt. Wenn wir beispielsweise eine NetzDG-Beschwerde zu drei unterschiedlichen Videos erhalten, vermerken wir drei Beschwerden, also eine Beschwerde je gemeldeten Inhalt. Deswegen setzen wir jede einzelne Beschwerde zu einem Video oder Kommentar in diesem Bericht mit einem Inhalt gleich. Die nachfolgenden Grafiken geben daher, ausgewiesen als Inhalte, Aufschluss über die Anzahl der im sechsmonatigen Berichtszeitraum angefallenen Beschwerden zu den gemeldeten Inhalten.

Anzahl der im Berichtszeitraum gemeldeten Inhalte
193.131
Die oben stehende Zahl umfasst alle im Berichtszeitraum uns gemeldeten Inhalte.

Gemeldete Inhalte aufgeschlüsselt nach Beschwerdestellen und Nutzern

Gemeldete InhalteNutzerBeschwerdestelle020.00040.00060.00080.000100.000120.000140.000130.55962.572
EntityGemeldete Inhalte
Nutzer130.559
Beschwerdestelle62.572

Die oben stehende Grafik zeigt die Anzahl der uns im Berichtszeitraum gemeldeten Inhalte aufgeschlüsselt nach der Art des Beschwerdeführers (Beschwerdestellen und Nutzer). Diese Daten beruhen allein auf der Auswahl des Beschwerdeführers bei Einreichung der Beschwerde und wir können nicht überprüfen, ob ein Beschwerdeführer, der „Beschwerdestelle“ auswählt, tatsächlich mit einer Beschwerdestelle in Verbindung steht.

Gemeldete Inhalte aufgeschlüsselt nach Beschwerdegrund

Gemeldete InhaltePrivatsphäreVerleumdung oder BeleidigungUngeeignete oder gefährliche Inha…Sexuelle InhalteTerroristische oder verfassungswid…Hassrede oder politischer Extremis…Gewalt010.00020.00030.00040.00050.00060.0006.51933.52925.40032.68313.58456.92924.487
CategoryGemeldete Inhalte
Privatsphäre6.519
Verleumdung oder Beleidigung33.529
Ungeeignete oder gefährliche Inhalte25.400
Sexuelle Inhalte32.683
Terroristische oder verfassungswidrige Inhalte13.584
Hassrede oder politischer Extremismus56.929
Gewalt24.487

Die oben stehende Grafik zeigt die Anzahl der uns im Berichtszeitraum gemeldeten Inhalte aufgeschlüsselt nach dem Beschwerdegrund. Diese Grafik gibt den Beschwerdegrund wieder, der zum Zeitpunkt der Beschwerde durch den Beschwerdeführer angegeben wurde.

Anzahl der entfernten Inhalte

Die Grafiken in diesem Abschnitt zeigen die Anzahl der Inhalte, die im Berichtszeitraum aufgrund einer NetzDG-Beschwerde entfernt oder gesperrt wurden.

Gesamtzahl entfernter Inhalte
30.870
Die oben stehende Zahl umfasst alle im Berichtszeitraum entfernten oder gesperrten Inhalte.

Entfernte Inhalte aufgeschlüsselt nach Beschwerdestellen und Nutzern

Entfernte InhalteNutzerBeschwerdestelle02.5005.0007.50010.00012.50015.00017.50020.00022.50025.00022.8877.983
EntityEntfernte Inhalte
Nutzer22.887
Beschwerdestelle7.983

Die oben stehende Grafik zeigt die Anzahl der von uns im Berichtszeitraum entfernten oder gesperrten Inhalte aufgeschlüsselt nach der Art des Beschwerdeführers (Beschwerdestellen und Nutzer). Diese Daten beruhen allein auf der Auswahl des Beschwerdeführers bei Einreichung der Beschwerde und wir können nicht überprüfen, ob ein Beschwerdeführer, der „Beschwerdestelle“ auswählt, tatsächlich mit einer Beschwerdestelle in Verbindung steht.

Entfernte Inhalte aufgeschlüsselt nach Beschwerdegrund

Entfernte InhaltePrivatsphäreVerleumdung oder BeleidigungUngeeignete oder gefährliche Inha…Sexuelle InhalteTerroristische oder verfassungswid…Hassrede oder politischer Extremis…Gewalt02.0004.0006.0008.00010.00012.0003745.7904.9133.0161.77111.8123.194
CategoryEntfernte Inhalte
Privatsphäre374
Verleumdung oder Beleidigung5.790
Ungeeignete oder gefährliche Inhalte4.913
Sexuelle Inhalte3.016
Terroristische oder verfassungswidrige Inhalte1.771
Hassrede oder politischer Extremismus11.812
Gewalt3.194
Die oben stehende Grafik zeigt die Anzahl der von uns im Berichtszeitraum entfernten oder gesperrten Inhalte aufgeschlüsselt nach dem Beschwerdegrund. Diese Grafik gibt den vom Beschwerdeführer angegebenen Beschwerdegrund wieder, der nicht mit dem tatsächlichen Grund der Entfernung oder Sperrung übereinstimmen muss.

Entfernung wegen eines Verstoßes gegen die Community-Richtlinien vs. NetzDG

Entfernt (NetzDG)Entfernt (Community-Richtlinien)PrivatsphäreVerleumdung oder BeleidigungUngeeignete oder gefährliche Inha…Sexuelle InhalteTerroristische oder verfassungswid…Hassrede oder politischer Extremis…Gewalt02.0004.0006.0008.00010.00012.000572159511308491263175.5754.8183.0051.46311.3213.168
CategoryEntfernt (NetzDG)Entfernt (Community-Richtlinien)
Privatsphäre57317
Verleumdung oder Beleidigung2155.575
Ungeeignete oder gefährliche Inhalte954.818
Sexuelle Inhalte113.005
Terroristische oder verfassungswidrige Inhalte3081.463
Hassrede oder politischer Extremismus49111.321
Gewalt263.168
Die oben stehende Grafik zeigt eine Gegenüberstellung der Inhalte, die nach einer Beschwerde aufgrund eines Verstoßes gegen die im NetzDG genannten Straftatbestände nur lokal gesperrt, und solchen, die wegen eines Verstoßes gegen unsere Community-Richtlinien weltweit entfernt wurden. Dabei kann ein mit einer Beschwerde gemeldeter Inhalt sowohl einen Verstoß gegen unsere Community-Richtlinien als auch einen Rechtsverstoß im Rahmen des NetzDG darstellen. Die blauen Säulen in der Grafik geben diejenigen Inhalte wieder, die ausschließlich wegen eines Verstoßes gegen die Straftatbestände des NetzDG lokal gesperrt wurden. Die rote Säule stellt diejenigen mit einer Beschwerde gemeldeten Inhalte dar, die entweder wegen eines Verstoßes gegen das NetzDG und eines Verstoßes gegen die Community-Richtlinien oder nur wegen eines Verstoßes gegen die Community-Richtlinien weltweit entfernt wurden.
NetzDG-BeschwerdenDieser BerichtszeitraumVorheriger Berichtszeitraum (vor 6 Monaten)Vorheriger Berichtszeitraum (vor 12 Monaten)
Gesamtzahl gemeldeter Inhalte193.131233.440282.858
Gesamtzahl der gesperrten/entfernten Inhalte30.87032.15050.717
Prozentualer Anteil gesperrter/entfernter Inhalte15,98 %13,77 %17,93 %

Die oben stehende Tabelle zeigt eine Gegenüberstellung der Gesamtzahl der nach NetzDG gemeldeten und gesperrten bzw. entfernten Inhalte sowie den prozentualen Anteil der gemeldeten Inhalte, die gesperrt oder entfernt wurden, in diesem und den zwei vorausgegangenen Berichtszeiträumen.

Verifizierte Beschwerdestellen

BeschwerdestelleGemeldete InhalteEntfernte Inhalte
Eco00
FSM10
jugendschutz.net1812

Diese Tabelle zeigt die Anzahl der Beschwerden, die wir von uns bekannten Beschwerdestellen aus dem Bereich des NetzDG erhalten haben. Diese Beschwerdestellen haben einen Auftrag zur Bekämpfung von Inhalten über sexuellen Kindesmissbrauch, der sich aus Vereinbarungen mit dem Bundeskriminalamt (BKA) und der Bundeszentrale für Kinder- und Jugendmedienschutz (BzKJ) ergibt, Eco, Freiwillige Selbstkontrolle Multimedia-Diensteanbieter e. V. und Jugendschutz.net. Die Zahlen der Tabelle zeigen die Erstentscheidung, die anhand der Meldung der Beschwerdestelle getroffen wurde. Die Zahlen spiegeln nicht den im Berichtszeitraum endgültigen Status eines gemeldeten Inhalts wider.

Einholen von Informationen bei Beschwerdeführern und Uploadern

Das NetzDG gestattet sozialen Netzwerken, den Uploader zu kontaktieren, wenn die Entscheidung über die Rechtswidrigkeit eines Inhalts von der Unwahrheit einer Tatsachenbehauptung oder anderen tatsächlichen Umständen abhängt. Um eine substantiierte Antwort des Uploaders zu erhalten, bedarf es allerdings zunächst einer konkreten und substantiierten Beschwerde durch den Beschwerdeführer, aus der hervorgeht, warum die gerügte Tatsachenbehauptung angeblich unwahr ist. Aufgrund des Umstandes, dass die Mehrheit der Beschwerden über rechtswidrige Inhalte, die im Rahmen des NetzDG an uns herangetragen werden, unsubstantiiert ist (auch nachdem YouTube weiterführende Informationen bei dem Beschwerdeführer erfragt hat), gibt es in diesen Fällen keinen hinreichenden Grund zur Kontaktaufnahme mit dem Uploader.

Weiterleitung an den Uploader
0
Gesamtzahl der Inhalte, die wir an den Uploader weitergeleitet haben, um seine Sicht auf die betreffende Beschwerde zu erhalten.
Weitere Informationen nötig
5.234
Gesamtzahl der Inhalte, bei denen wir weitere Informationen vom Beschwerdeführer benötigten.

Anzahl der Beschwerden, bei denen eine externe Stelle konsultiert wurde

Es gibt Fälle im Strafrecht, die komplex sind und spezifisches juristisches Fachwissen erfordern. Dies sind Fälle, in denen wir eine externe Stelle konsultieren können, z. B. eine auf Strafrecht spezialisierte Anwaltskanzlei oder eine Einrichtung der Regulierten Selbstregulierung im Rahmen des NetzDG.

Weiterleitung an eine anerkannte Einrichtung der Regulierten Selbstregulierung
12
Gesamtzahl der an eine Einrichtung zur Selbstregulierung weitergeleiteten Inhalte. Gesamtzahl der an eine Einrichtung zur Selbstregulierung weitergeleiteten Inhalte. Entscheidungen der NetzDG-Prüfausschüsse können hier abgerufen werden.
Weiterleitung an eine auf Strafrecht spezialisierte Anwaltskanzlei
2
Gesamtzahl der an eine auf Strafrecht spezialisierte Anwaltskanzlei weitergeleiten Inhalte.

Anzahl der als rechtswidrig im Sinne des NetzDG identifizierten Inhalte

Wir prüfen alle NetzDG-Beschwerden über rechtswidrige Inhalte nach dem NetzDG daraufhin, ob die gemeldeten Inhalte gegen einen der im NetzDG genannten Straftatbestände (§ 1 Abs. 3 NetzDG) verstoßen.

Gesamtzahl der Inhalte, die nach dem NetzDG illegal sind
7.000

Die oben stehende Zahl umfasst alle im Berichtszeitraum entfernten oder gesperrten Inhalte, die wir gemäß einem der im NetzDG genannten Straftatbestände als rechtswidrig eingestuft haben.

Bearbeitungszeit für als rechtswidrig im Sinne des NetzDG identifizierte Inhalte

Die Grafiken in diesem Abschnitt zeigen die Anzahl der im Berichtszeitraum entfernten oder gesperrten Inhalte, die wir gemäß einem der im NetzDG genannten Straftatbestände als rechtswidrig eingestuft haben, nach Bearbeitungszeit. Die Bearbeitungszeit ist die Zeitspanne, die zwischen dem Eingang einer Beschwerde und der Entfernung oder Sperrung des gemeldeten Inhalts vergeht.

Bearbeitungszeit aufgeschlüsselt nach Beschwerdestellen und Nutzern

BeschwerdestelleNutzerInnerhalb von 24 StundenInnerhalb von 48 StundenInnerhalb von einer WocheZu einem späteren Zeitpunkt05001.0001.5002.0002.5003.0003.5004.0004.5002.0251576454.15934221830
TimeBeschwerdestelleNutzer
Innerhalb von 24 Stunden2.0254.159
Innerhalb von 48 Stunden157342
Innerhalb von einer Woche64218
Zu einem späteren Zeitpunkt530

Die oben stehende Grafik zeigt, anders als in vorangegangenen Bearbeitungszeiträumen, nur die Bearbeitungszeit für die im Berichtszeitraum entfernten oder gesperrten Inhalte, die wir gemäß einem der im NetzDG genannten Straftatbestände als rechtswidrig eingestuft haben, aufgeschlüsselt nach der Art des Beschwerdeführers (Beschwerdestellen und Nutzer). Daten über die Bearbeitungszeit für alle Inhalte, die in den vergangenen Berichtszeiträumen entfernt oder gesperrt wurden, finden Sie im Drop-down-Menü unter der Grafik. Diese Daten beruhen allein auf der Auswahl des Beschwerdeführers bei Einreichung der Beschwerde und wir können nicht überprüfen, ob ein Beschwerdeführer, der „Beschwerdestelle“ auswählt, tatsächlich mit einer Beschwerdestelle in Verbindung steht. Die Bearbeitung von Fällen kann länger als sieben Tage dauern aufgrund von technischen Problemen, komplexer Sachverhalte, wenn wir externen Rat einholen, oder bei Inhalten in seltenen Sprachen.

Bearbeitungszeit aufgeschlüsselt nach Beschwerdegrund

Innerhalb von 24 StundenInnerhalb von 48 StundenInnerhalb von einer Woc…Zu einem späteren Zeit…PrivatsphäreVerleumdung oder BeleidigungUngeeignete oder gefährliche Inha…Sexuelle InhalteTerroristische oder verfassungswid…Hassrede oder politischer Extremis…Gewalt05001.0001.5002.0002.5003.000
GrundInnerhalb von 24 StundenInnerhalb von 48 StundenInnerhalb von einer WocheZu einem späteren Zeitpunkt
Privatsphäre883192
Verleumdung oder Beleidigung2.2401495230
Ungeeignete oder gefährliche Inhalte18036300
Sexuelle Inhalte154950
Terroristische oder verfassungswidrige Inhalte59043310
Hassrede oder politischer Extremismus2.5512351293
Gewalt38124160
GrundInnerhalb von 24 StundenInnerhalb von 48 StundenInnerhalb von einer WocheZu einem späteren Zeitpunkt
Privatsphäre883192
Verleumdung oder Beleidigung2.2401495230
Ungeeignete oder gefährliche Inhalte18036300
Sexuelle Inhalte154950
Terroristische oder verfassungswidrige Inhalte59043310
Hassrede oder politischer Extremismus2.5512351293
Gewalt38124160

Die vorstehenden Grafiken zeigen die Bearbeitungszeit für im Berichtszeitraum entfernte oder gesperrte Inhalte, die wir gemäß einem der im NetzDG genannten Straftatbestände als rechtswidrig eingestuft haben, aufgeschlüsselt nach dem Beschwerdegrund. Diese Grafiken geben den vom Beschwerdeführer angegebenen Beschwerdegrund wieder, der nicht mit dem tatsächlichen Grund der Entfernung oder Sperrung übereinstimmen muss.

Prozentsatz der aufgrund von NetzDG-Beschwerden entfernten oder gesperrten Inhalte, die wir gemäß NetzDG als rechtswidrig eingestuft haben, die innerhalb von 24 Stunden entfernt oder gesperrt wurden.

Zugang zu Informationen für die Forschung

0
Die oben stehende Zahl gibt an, wie oft Wissenschaft und Forschung Zugang zu Informationen nach § 5a NetzDG gewährt wurde.

Auskunftsersuchen zu Nutzerdaten

Behörden, Gerichte und Parteien in zivilen Gerichtsverfahren fordern regelmäßig Nutzerdaten bei Technologie- und Telekommunikationsunternehmen an. In diesem Bericht legen wir Informationen über die Anzahl und Art der Auskunftsersuchen offen, die wir von Behörden erhalten haben.

Meldemechanismen, Transparenzmaßnahmen und Prüfverfahren

YouTube versucht, „Vier Freiheiten“ – Meinungsfreiheit, Informationsfreiheit, Handlungsfreiheit und die Freiheit der Zugehörigkeit („freedom to belong“) – in Balance zu halten und zu bewahren. Die Durchsetzung unserer Community-Richtlinien und/oder lokaler Gesetze ist Bestandteil dieser Balance zwischen diesen vier Freiheiten und dem Erhalt der YouTube-Community. Diese Balance zu finden ist nicht einfach, insbesondere für eine weltweit agierende Plattform, die unterschiedlichen rechtlichen und kulturellen Standards unterworfen ist.

Mechanismen zur Übermittlung von Beschwerden über mutmaßlich rechtswidrige Inhalte nach dem NetzDG

Für Nutzer in Deutschland bietet YouTube ein leicht erkennbares, unmittelbar erreichbares und ständig verfügbares Meldeverfahren nach dem NetzDG. Dieses Meldeverfahren ist für bei YouTube angemeldete Nutzer in das Meldeverfahren integriert, das unter jedem Video und neben jedem Kommentar (drei Punkte) zur Verfügung steht. Um eine Beschwerde nach dem NetzDG einzureichen, muss der Beschwerdeführer in diesem Meldeverfahren das Kästchen „Ich bin der Meinung, dass dieser Inhalt gemäß dem Netzwerkdurchsetzungsgesetz eingeschränkt werden sollte. Weitere Informationen“ auswählen. Es öffnet sich dann ein kurzes Formularfeld, in das für eine rechtliche Prüfung erforderliche Informationen eingetragen werden können.

YouTube bietet ferner für alle Nutzer, ob angemeldet oder nicht, ein NetzDG-Meldeformular an, das unmittelbar über den Link NetzDG-Beschwerden im Hauptmenü von YouTube oder über das YouTube-Impressum (eine Kontaktseite für alle Nutzer in Deutschland) zugänglich ist.

Der durchschnittliche Beschwerdeführer wird als juristischer Laie überfordert sein, wenn er mit einer Vielzahl von zudem komplexen Einzeltatbeständen des Strafrechts konfrontiert und so gegebenenfalls sogar von einer Meldung abgeschreckt wird. Er wird die einschlägigen Straftatbestände in der Regel nicht kennen und nicht in der Lage sein, bei der Einreichung seiner NetzDG-Beschwerde jeweils den bzw. die richtigen Straftatbestände anzugeben. Zudem können gemeldete Inhalte mehr als einen der aufgelisteten Straftatbestände verletzen. So wird beispielsweise ein Video, mit dem neue Mitglieder oder Unterstützer einer kriminellen oder terroristischen Vereinigung (§§ 129, 129a StGB) geworben werden sollen, üblicherweise zugleich Symbole wie etwa eine Flagge verwenden, die gegebenenfalls nach §§ 86, 86a StGB strafbar sind; zusätzlich könnte sogar der Straftatbestand einer Vorbereitung einer schweren staatsgefährdenden Gewalttat gemäß § 89a StGB erfüllt sein. Diese – schon in früheren Berichten aufgezeigten – Bedenken haben sich durch die Änderungen durch das Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität noch einmal erheblich verstärkt. Eine Bedrohung im Sinne des § 241 StGB kann zum Beispiel auch „über Dritte“ erfolgen, wenn die Weitergabe an den Adressaten vom Vorsatz des Täters umfasst ist. Den Straftatbeständen der Androhung (§ 126 StGB) und der Bedrohung (§ 241 StGB) fehlt es also gerade bei einer Veröffentlichung des jeweiligen Inhalts im Rahmen sozialer Netzwerke an Bestimmtheit und Trennschärfe.

Um das Beschwerdeverfahren zu vereinfachen und die Beschwerdeführer bei der Einreichung ihrer Beschwerden nach dem NetzDG zu unterstützen, haben wir daher für das NetzDG-Meldeverfahren sieben Inhaltskategorien gebildet, die die 22 einschlägigen Straftatbestände erfassen, in einer allgemein verständlichen Weise abbilden und kategorisieren. Damit erreichen wir zugleich, juristische Straftatbestände, die sehr abstrakt sind und einen oft weiten Anwendungsbereich aufweisen, für juristische Laien greifbarer zu machen. So stellt beispielsweise § 140 StGB die Billigung oder Belohnung so unterschiedlicher Straftaten wie Hoch- und Landesverrat, Mord, Totschlag und andere schwere Verbrechen wie das Verbrechen der Aggression nach Völkerrecht, (mindestens) gefährliche Körperverletzung und bestimmte gemeingefährliche Verbrechen sowie schwere Straftaten gegen die sexuelle Selbstbestimmung unter Strafe. Der von § 140 StGB in Bezug genommene Katalog des § 126 StGB wurde seinerseits erweitert. Zudem ist für die Alternative der Billigung in § 140 StGB nun nicht einmal mehr erforderlich, dass die betreffende Tat bereits begangen oder jedenfalls in strafbarer Weise versucht wurde. Die Verweisungstechnik auf Tatbestandskataloge und die verschachtelte Tatbestandsprüfung überfordert juristische Laien mehr denn je, gerade durch den in die Zukunft weisenden Charakter von Drohungen. Die bisher bewährte Kategorienbildung ermöglicht voraussichtlich auch weiterhin, den Zielen des NetzDG bestmöglich Rechnung zu tragen.

Diese Inhaltskategorien und diejenigen Straftatbestände aus § 1 Abs. 3 NetzDG, von denen wir erwarten, dass sie von der jeweiligen Kategorie und von deren Auswahl für Beschwerden im Wesentlichen erfasst sind, teilen sich wie folgt auf:

Hassrede oder politischer Extremismus

  • § 130 StGB: Volksverhetzung
  • § 166 StGB: Beschimpfung von Bekenntnissen, Religionsgesellschaften und Weltanschauungsvereinigungen

Terroristische oder verfassungswidrige Inhalte

  • § 86 StGB: Verbreiten von Propagandamitteln verfassungswidriger Organisationen
  • § 86a StGB: Verwenden von Kennzeichen verfassungswidriger Organisationen
  • § 89a StGB: Vorbereitung einer schweren staatsgefährdenden Gewalttat
  • § 91 StGB: Anleitung zur Begehung einer schweren staatsgefährdenden Gewalttat
  • § 100a StGB: Landesverräterische Fälschung
  • § 129 StGB: Bildung krimineller Vereinigungen
  • § 129a StGB: Bildung terroristischer Vereinigungen
  • § 129b StGB: Kriminelle und terroristische Vereinigungen im Ausland; Einziehung
  • § 140 StGB in Verbindung mit § 138 I StGB: Belohnung und Billigung von einigen Straftaten aufgelistet in § 138 I StGB
  • § 269 StGB: Fälschung beweiserheblicher Daten

Gewalt

  • § 131 StGB: Gewaltdarstellung

Schädliche oder gefährliche Handlungen

  • § 111 StGB: Öffentliche Aufforderung zu Straftaten
  • § 126 StGB: Störung des öffentlichen Friedens durch Androhung von Straftaten
  • § 140 StGB in Verbindung mit § 126 Abs. 1 StGB: Belohnung und Billigung von Straftaten aufgelistet in § 126 Abs. 1 StGB
  • § 241 StGB: Bedrohung

Verleumdung oder Beleidigung

  • § 185 StGB: Beleidigung
  • § 186 StGB: Üble Nachrede
  • § 187 StGB: Verleumdung

Privatsphäre

  • § 201a StGB: Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen

Sexuelle Inhalte

  • § 184b StGB: Verbreitung, Erwerb und Besitz kinderpornografischer Inhalte
  • § 140 StGB in Verbindung mit §§ 176 bis 178 StGB: Belohnung und Billigung von einigen Straftaten aufgelistet in §§ 176 bis 178 StGB

Aufgrund unserer langjährigen Erfahrung mit Meldeprozessen zur Entfernung von Inhalten sind wir überzeugt, dass der Zweck des NetzDG insgesamt am besten durch eine Verwendung dieser Kategorien erreicht wird.

Weitere Informationen

Maßnahmen zur Unterrichtung des Beschwerdeführers und des Uploaders

Wenn wir eine NetzDG-Beschwerde über die vorstehend beschriebenen Meldeverfahren bekommen, erhält der Beschwerdeführer eine Bestätigungs-E-Mail mit einer Referenznummer, aus der hervorgeht, dass wir seine Beschwerde erhalten haben und diese überprüfen werden.

Nach Überprüfung einer NetzDG-Beschwerde senden wir dem Beschwerdeführer eine E-Mail mit Informationen über die zu seiner Beschwerde getroffenen Entscheidung nach dem NetzDG und deren Gründe. Diese Nachricht beinhaltet auch Informationen, dass eine Strafanzeige bei den Strafverfolgungsbehörden erstattet werden kann sowie dass weitere Informationen unter diesem Link, einer Hilfeseite des Bundesministeriums der Justiz (BMJ) unter hilfe-info.de, abgerufen werden können. Sofern der NetzDG-Beschwerde im Hinblick auf ein Video nicht entsprochen wird, enthält die Nachricht auch einen Link, über den der Beschwerdeführer einen Antrag für eine erneute Überprüfung der Entscheidung nach dem NetzDG einreichen kann.

Wenn wir auf eine NetzDG-Beschwerde hin einen Inhalt wegen Verstoßes gegen einen der im NetzDG genannten Straftatbestände sperren, senden wir per E‑Mail eine Benachrichtigung an den Uploader mit entsprechenden Informationen über die Sperrung. Sofern ein Video gesperrt wurde, enthält diese Benachrichtigung auch einen Link, über den der Uploader einen Antrag für eine erneute Überprüfung der Entscheidung nach dem NetzDG einreichen kann. Sofern ein Video wegen Verstoßes gegen die Community-Richtlinien entfernt wurde, erhält der Uploader eine Benachrichtigung mit einem Link, über den er eine Community-Richtlinien-Überprüfung der Entscheidung beantragen kann.

Wenn ein Video auf der Grundlage der Community-Richtlinien entfernt oder aufgrund des lokalen Rechts gesperrt wurde, zeigen wir anstelle des Videos einen öffentlich zugänglichen Hinweis, der die Nutzer darüber informiert, dass das Video nicht mehr verfügbar ist.

Sonstige Meldemechanismen

Rechtliche Beschwerden. Wie bereits erläutert, haben wir zusätzliche Meldemöglichkeiten für Beschwerdeführer geschaffen, um uns Inhalte zu melden, die gemäß dem NetzDG entfernt oder gesperrt werden sollten: zum einen ein Meldeformular für alle Nutzer, das unmittelbar über den Link NetzDG-Beschwerden im YouTube-Hauptmenü oder das YouTube-Impressum erreichbar ist. Für angemeldete Nutzer steht zusätzlich das in das Meldeverfahren integrierte NetzDG-Kästchen zur Verfügung, wie vorstehend dargestellt wurde. Diese Wege zur Übermittlung einer Beschwerde ermöglichen den Nutzern, den beanstandeten Inhalt sowie den Beschwerdegrund konkret zu benennen. Nur anhand dieser Informationen ist es uns möglich, eine ordnungsgemäße rechtliche Prüfung durchzuführen, um dann ggf. entsprechende Maßnahmen einleiten zu können. Ist die Beschwerde unsubstantiiert oder gibt es keine hinreichende Rechtfertigung für eine Entfernung oder Sperrung, treten wir gegebenenfalls an den Beschwerdeführer heran und bitten um weitere Informationen.

Die Bereitstellung eines intuitiven und unmittelbar erreichbaren Meldeverfahrens direkt neben den Inhalten führt naturgemäß zu einer hohen Anzahl an Klicks und Beschwerden. Solche Beschwerden sind nicht immer zuverlässig. Viele der Beschwerden stehen in keinem Zusammenhang zum deutschen Strafrecht oder sind völlig unsubstantiiert, sodass wir keine Maßnahmen ergreifen können. Andere Beschwerdeführer melden Inhalte ohne weitere Informationen, warum diese angeblich rechtswidrig sind. Dies ist insbesondere dann problematisch, wenn die Inhalte nicht offensichtlich rechtswidrig sind.

Neben der Möglichkeit zur Einreichung von NetzDG Beschwerden stellen wir schon seit Jahren Meldeformulare für diverse Rechtsverletzungen zur Verfügung (z. B. für Persönlichkeitsrechtsbeschwerden, Urheberrechtsbeschwerden, Markenbeschwerden usw.). Demnach haben wir Meldeverfahren für Rechtsverletzungen nicht erst aufgrund des NetzDG eingeführt. Das NetzDG hat lediglich dazu beigetragen, unsere bestehenden Meldeverfahren enger miteinander zu verknüpfen – und zwar das Melden von mutmaßlichen Verstößen gegen die Community-Richtlinien und die Meldeformulare für mutmaßlich rechtswidrige Inhalte nach dem NetzDG.

Meldungen der YouTube-Community. Wir bieten unseren angemeldeten Nutzern ein Meldeverfahren, durch das sie uns auf Inhalte aufmerksam machen können, die möglicherweise gegen unsere Community-Richtlinien verstoßen. Dieses Meldeverfahren steht unter jedem Video und neben jedem Kommentar zur Verfügung. Der Nutzer kann dabei zwischen verschiedenen Inhaltskategorien wählen, für die er einen Inhalt melden möchte. Sofern das NetzDG-Kästchen nicht angeklickt wird, werden diese Meldungen nur anhand der Community-Richtlinien geprüft. Dabei handelt es sich um ein freiwillig entwickeltes System verbindlicher Verhaltensregeln auf YouTube, das unabhängig von jeder rechtlichen Verpflichtung besteht. Daneben haben wir ein Programm namens Priority Flagger entwickelt, um Organisationen, die uns besonders effektiv über Inhalte informieren, die möglicherweise gegen unsere Community-Richtlinien verstoßen, solide Prozesse und leistungsfähige Tools für das Melden mehrerer Inhalte zur Verfügung zu stellen. Die Meldungen von solchen Priority Flaggern werden nur anhand der Community-Richtlinien geprüft. Priority Flagger sind Nichtregierungsorganisationen und Behörden, die uns regelmäßig einschlägige Inhalte melden und durch ihre Expertise einen wertvollen Beitrag für die YouTube-Community leisten. Detaillierte Informationen über das Priority Flagger-Programm finden Sie in unserem Bericht zur Durchsetzung der YouTube-Community-Richtlinien.

Automatisierter maschineller Abgleich. YouTubes Systeme setzen bereits an dem Punkt an, an dem ein Uploader ein Video hochlädt. YouTube verwendet Technologien, um das erneute Hochladen von bereits bekannten unzulässigen Inhalten zu verhindern, unter anderem durch die Verwendung von Hashes. Hashes sind eindeutige digitale Fingerabdrücke für Bilder und Videos, die uns helfen, ein erneutes Hochladen von exakt übereinstimmenden Videos zu verhindern, die wegen Verstößen gegen die Community-Richtlinien entfernt wurden. Für einige Inhalte, wie Bilder von sexuellem Kindesmissbrauch und Videos zur Rekrutierung von Terroristen, verwendet YouTube auch eine von der Industrie gemeinsam gepflegte Datenbank von Hashes, um die Menge der Inhalte zu erhöhen, die unsere Systeme beim Hochladen blockieren können.

Automatische maschinelle Meldungen. Im Juni 2017 haben wir damit begonnen, maschinelles Lernen einzusetzen, um möglicherweise gewalttätige extremistische Inhalte zu melden und diese einer manuellen, menschlichen Prüfung zuzuführen. YouTube nutzt den Bestand an Videos, die bereits auf gewalttätigen Extremismus hin manuell überprüft und entfernt wurden, um unsere automatischen Systeme zu trainieren, damit diese neue Inhalte melden können, die ebenfalls gegen die Community-Richtlinien verstoßen könnten. Der Einsatz von automatischen Systemen, die durch menschliche Entscheidungen geschult werden, führt dazu, dass die Systeme im Laufe der Zeit immer genauer werden. Nach ersten positiven Ergebnissen haben wir daher begonnen, unsere automatischen Systeme bezüglich anderer, schwierig zu beurteilender Inhalte zu trainieren, einschließlich Inhalten, die zu Hass und Hetze aufrufen und Kinder ausbeuten. An dieser Stelle ist jedoch zu betonen, dass solche automatischen Systeme nur dann effektiv eingesetzt werden können, wenn es eine klar definierte, kontextunabhängige Verletzungshandlung gibt. Eine menschliche Beurteilung in all ihren feinen Nuancen kann eine Maschine nicht leisten. Um mehr zu erfahren, lesen Sie bitte unseren Bericht zu den YouTube-Community-Richtlinien und ihrer Durchsetzung.

Prüfverfahren

Meldungen der YouTube-Community. Die weltweit geltenden Community-Richtlinien von YouTube sind klare, übergeordnete Regeln, die hier abrufbar sind. Diese Richtlinien haben sich mit dem Wachstum von YouTube und dem sich ändernden Nutzerverhalten weiterentwickelt. Unsere Nutzer erklären sich damit einverstanden, diese Richtlinien einzuhalten, bevor sie einen YouTube-Kanal eröffnen.

Inhalte, die uns – wie oben beschrieben – über unser Meldeverfahren gemeldet wurden, prüfen wir anhand unserer Community-Richtlinien. Dabei verbieten die Richtlinien unter anderem folgende Inhalte, die auch für das NetzDG von Relevanz sind: Nacktheit und sexuelle Inhalte, schädliche oder gefährliche Inhalte, Hassreden, gewalttätige oder anderweitig explizite Inhalte, Belästigung und Cyber-Mobbing, Drohungen und Gefährdung von Kindern.

Die einheitliche Durchsetzung der Community-Richtlinien stellt YouTube mit internen, umfangreichen Auslegungskriterien sicher. Beispielsweise verbieten bereits die Community-Richtlinien Inhalte, die den Terrorismus fördern. Wenn eine terroristische Vereinigung einen neuen Zweig gründet, können die internen Auslegungskriterien mit Informationen über diese spezielle Gruppe aktualisiert werden. So verfügen die Prüfer über das notwendige Wissen, um Inhalte zu entfernen, die für diese Gruppe werben. YouTube veröffentlicht diese Art von Aktualisierungen nicht immer, um Missbrauch durch Nutzer zu verhindern.

Die Prüfteams können den Kontext eines gemeldeten Inhalts während ihrer Prüfung sehen, einschließlich der Videobeschreibung, anderer in den Kanal hochgeladener Inhalte sowie der Metadaten (Titel, Tags oder Bildunterschriften). Diese kontextabhängigen Hinweise sind wichtig für die Beurteilung der Intention des Uploaders. Darüber hinaus erfasst unser System den Zeitpunkt, zu dem das Video gemeldet wurde, und wir bitten die Beschwerdeführer in unseren Meldeformularen, den für die Rechtsverletzung relevanten Zeitpunkt in dem gemeldeten Video anzugeben. So können sich unsere Prüfer auf die potenziell kritischen Abschnitte innerhalb eines Videos konzentrieren.

Wir haben Ausnahmen von den Community-Richtlinien für pädagogisches, dokumentarisches, wissenschaftliches und/oder künstlerisches Material erarbeitet. Videos oder Kommentare, die unter diese Ausnahmen fallen, sind wichtig, um das Weltgeschehen und geschichtliche Entwicklungen besser zu verstehen, seien es Kriege und Revolutionen oder künstlerische Ausdrucksformen. Die Auslegungskriterien von YouTube helfen den Prüfern, diese Ausnahmen zu verstehen und bei ihrer Prüfung entsprechend anzuwenden. Doch selbst mit gut formulierten Kriterien kann die Entscheidung, welche Videos und Kommentare diesen Ausnahmen unterliegen und welche nicht, eine komplexe Abwägung für die Prüfer bedeuten.

Grundsätzlich entfernen unsere Prüfteams Inhalte weltweit, wenn sie gegen unsere Community-Richtlinien verstoßen. Hinzu kommen weitere Maßnahmen, die unsere Teams durchführen können.

  • Altersbeschränkung. Einige Videos verstoßen nicht gegen unsere Community-Richtlinien und sind auch nicht rechtswidrig, sind aber möglicherweise nicht für alle Zielgruppen geeignet. In diesen Fällen und nach entsprechender Beschwerde können unsere Prüfteams eine Altersbeschränkung für die Videos festlegen. Altersbeschränkte Videos sind nicht sichtbar für Nutzer, die ausgeloggt oder unter 18 Jahre alt sind, oder den Eingeschränkten Modus aktiviert haben. Sobald wir ein Video mit einer Altersbeschränkung versehen haben, teilen wir dem Uploader per E‑Mail mit, dass sein Video altersbeschränkt ist und er gegen diese Entscheidung einen Antrag auf erneute Überprüfung seines Inhalts einreichen kann. Weitere Informationen.
  • Eingeschränkte Funktionen. Wenn unsere Prüfteams feststellen, dass ein Video im Rahmen unserer Community-Richtlinien grenzwertig ist, können einige Funktionen rund um das Video deaktiviert werden. Diese Videos bleiben zwar auf YouTube verfügbar, werden aber hinter einer Warnmeldung angezeigt; einige Funktionen werden deaktiviert, einschließlich der Möglichkeit, das Video zu teilen, zu kommentieren, anderen vorzuschlagen oder weiterzuempfehlen. Eine Monetarisierung ist für solche Videos nicht möglich. Sobald wir ein Video auf diese Weise eingeschränkt haben, teilen wir dem Uploader per E‑Mail mit, dass sein Video eingeschränkt ist und er gegen diese Entscheidung einen Antrag auf erneute Überprüfung seines Inhalts einreichen kann. Weitere Informationen
  • Als privat gesperrt. Wenn ein Video gegen unsere Richtlinie über irreführende Metadaten verstößt, kann es als privat gesperrt werden. Es ist dann für die Öffentlichkeit nicht mehr sichtbar. Das ist auch dann der Fall, wenn der Nutzer auf einen konkreten Link zu diesem Video klickt. Sobald wir ein Video als privat gesperrt haben, teilen wir dem Uploader per E‑Mail mit, dass sein Video nicht mehr öffentlich zugänglich ist und er gegen diese Entscheidung einen Antrag auf erneute Überprüfung seines Inhalts einreichen kann. Weitere Informationen

Bei wiederholtem Missbrauch oder schwerwiegenden Verstößen können bestimmte Funktionen deaktiviert oder Nutzerkonten gekündigt werden. Grundsätzlich akzeptieren Nutzer mit den Community-Richtlinien, dass drei Verstöße zur Kündigung eines Nutzerkontos führen. Bei dem ersten Verstoß gegen unsere Community-Richtlinien gibt es in der Regel eine Verwarnung; bei eklatanten Verstößen, wie zum Beispiel Terrorismus, können wir Nutzerkonten aber auch direkt kündigen.

Rechtliche Beschwerden. Wenn wir eine rechtliche Beschwerde erhalten, führen unsere Prüfteams eine rechtliche Prüfung auf der Grundlage der in der Beschwerde enthaltenen Informationen durch, einschließlich der Prüfung des vom Beschwerdeführer angegebenen Beschwerdegrunds. Im Rahmen dessen betrachten wir selbstverständlich auch den Kontext, in dem der gerügte Inhalt steht (z. B. Metadaten, Titel etc.). Wenn wichtige Informationen in einer Beschwerde fehlen – der Beschwerdeführer zum Beispiel anonym bleibt, gleichzeitig aber eine Verletzung seiner Persönlichkeitsrechte rügt – werden die Prüfteams den Beschwerdeführer in der Regel kontaktieren, um weitere Informationen zu erfragen, die für eine rechtliche Prüfung erforderlich sind. Kommen wir nach der Prüfung zu dem Ergebnis, dass der Inhalt nach deutschem Recht rechtswidrig ist, sperren wir ihn lokal.

NetzDG-Beschwerden. Im Rahmen unseres Prüfverfahrens prüft unser spezialisiertes NetzDG-Team (siehe Abschnitt „Prüfteams“), das jeweils den Kontext des beanstandeten Inhalts sehen kann, bei Eingang einer NetzDG-Beschwerde den beanstandeten Inhalt anhand der im NetzDG genannten Straftatbestände. Wenn der Inhalt erkennbar gegen unsere Community-Richtlinien verstößt, entfernt das NetzDG-Team ihn weltweit. Dementsprechend können aufgrund einer NetzDG-Beschwerde gemeldete Inhalte mit zwei Entscheidungen versehen werden. Dies kann dazu führen, dass ein Video weltweit entfernt wird, wenn dieses nur gegen unsere Richtlinien oder zusätzlich gegen deutsches Recht verstößt. Liegt kein Verstoß gegen die Richtlinien vor, erachten wir das Video aber als rechtswidrig nach § 1 Abs. 3 NetzDG oder anderen lokalen Rechtsnormen, wird dieses lokal gesperrt.

Die Prüfung der Beschwerden ist oft nicht einfach. Einige der Straftatbestände sind selbst für Juristen kaum greifbar, wie z. B. die Fälschung beweiserheblicher Daten (§ 269 StGB). Das Äußerungsrecht, um ein weiteres Beispiel zu nennen, ist ein Bereich, in dem sich in den letzten Jahrzehnten, insbesondere seit Inkrafttreten des Grundgesetzes, eine umfassende Rechtsprechung etabliert hat. Das Ermitteln von Rechtsverletzungen erfordert in diesem Bereich oftmals nicht nur eine genaue Kenntnis des jeweiligen Kontextes, in den eine Äußerung eingebettet ist, sondern darüber hinaus regelmäßig eine komplexe Abwägung der involvierten Interessen. Insbesondere im Bereich der Persönlichkeitsrechtsverletzungen lässt sich daher in den wenigsten Fällen von einer offensichtlichen Rechtswidrigkeit sprechen. Gerichte benötigen mitunter Jahre, um einen bestimmten Inhalt äußerungsrechtlich als zulässig oder unzulässig einzustufen, und kommen dabei oft zu unterschiedlichen Ergebnissen. Insbesondere das Bundesverfassungsgericht hat in dem Bereich des Äußerungsrechts immer wieder gezeigt, dass die rechtliche Bewertung komplexe Abwägungsvorgänge erfordert, einzelfallabhängig ist und stets der jeweilige Kontext einer Äußerung bei dessen Bewertung eine entscheidende Rolle spielt. Anders als bei gerichtlichen Verfahren, innerhalb derer umfassend Beweis erhoben werden kann, verfügen soziale Netzwerke nicht immer über alle notwendigen Informationen, um eine rechtlich fundierte Entscheidung treffen zu können. Es gibt insbesondere kein Erkenntnisverfahren, das bestimmten Beweisregeln unterliegt. In diesen Fällen ist die Rechtmäßigkeit der Inhalte – gemessen an konkreten Tatbestandsmerkmalen – oft sehr schwer zu beurteilen und sollte – jedenfalls in Grenzfällen – in der Regel besser von den zuständigen Gerichten beurteilt werden.

Diese Erwägungen sind nicht bloß theoretischer Natur, sondern werden nahezu täglich durch die Praxis bestätigt: Viele äußerungsrechtliche Beschwerden, die im Rahmen des NetzDG bei uns eingehen, werden beispielsweise nicht von der betroffenen Person selbst, sondern von Dritten eingereicht, die lediglich davon ausgehen, dass sich die betroffene Person in ihren Persönlichkeitsrechten verletzt fühlen könnte. Ob dies tatsächlich der Fall ist, ist dem sozialen Netzwerk nicht bekannt. Ebenso wenig übrigens, ob die betroffene Person etwa eine Strafanzeige bei den zuständigen Strafverfolgungsbehörden gestellt hat – die Verfolgung dieser Straftaten erfordert einen Antrag durch den Betroffenen (sog. Antragsdelikte).

NetzDG-Beschwerden werden von unserem NetzDG-Team in 2 Schichten, 7 Tage die Woche, 365 Tage im Jahr bearbeitet, um zu gewährleisten, dass Inhalte innerhalb der Fristen gemäß dem NetzDG je nach Sachverhalt global entfernt oder lokal gesperrt werden können. Wenn eine Beschwerde offensichtlich unbegründet ist, erhält der Beschwerdeführer gemäß den gesetzlichen Anforderungen umgehend eine Antwort (siehe den Abschnitt „Maßnahmen zur Unterrichtung des Beschwerdeführers und des Uploaders nach NetzDG“). Wenn der beanstandete Inhalt nicht offensichtlich gegen die Community-Richtlinien von YouTube oder die relevanten Straftatbestände verstößt, die Inhalte aus anderen Gründen komplex sind oder nicht offensichtlich einen Bezug zu Deutschland haben, eskaliert der zuständige Sachbearbeiter die Beschwerde, indem er sie einem Senior Content Reviewer für dessen unmittelbare Beurteilung übergibt. Dieser Senior Content Reviewer ergreift sodann die erforderlichen Schritte. Komplexe Beschwerden werden der Rechtsabteilung von YouTube übergeben, die – sofern auch dort Zweifel bestehen – die jeweilige Beschwerde an die Rechtsabteilung der Google Germany GmbH weiterleitet. Diese hat ihrerseits die Möglichkeit, für besonders schwierige Fälle eine externe Kanzlei mit Expertise im Strafrecht hinzuzuziehen. Dieser Prozess nimmt in der Regel bis zu 7 Tage in Anspruch.

Wir haben einen strengen Qualitätssicherungsprozess eingerichtet, um zu gewährleisten, dass das NetzDG-Team wie vorgesehen funktioniert sowie die Community-Richtlinien von YouTube und die Straftatbestände des NetzDG richtig und konsistent anwendet. Im Berichtszeitraum haben wir im Schnitt ungefähr 30 % der geprüften Inhalte der Vorwoche überprüft, wobei die Anzahl der solchen Qualitätssicherungsmaßnahmen unterworfenen Inhalte abhängig vom Volumen der Beschwerdeeingänge von Woche zu Woche variieren kann. Das mit der Qualitätsprüfung befasste Team bewertet Entscheidungen der einzelnen Sachbearbeiter, gibt ihnen individuelles Feedback und nimmt eine Gesamtanalyse der Ergebnisse der Qualitätsprüfung vor. Die erneut überprüften Fälle sind die Grundlage für eine wöchentliche Qualitätsdatenübersicht. Die Qualitätsprüfer sind ein besonderes Team innerhalb des NetzDG-Teams, das sich aus erfahrenen Mitgliedern des Teams zusammensetzt, die schon vorher im Bereich der Inhaltsprüfung tätig waren und über umfangreiche Erfahrung mit den im NetzDG aufgeführten Straftatbeständen und den Community-Richtlinien von YouTube verfügen. In wöchentlichen Treffen zwischen den Mitgliedern der Rechtsabteilung von YouTube und dem NetzDG-Team werden nicht nur die neuesten Ergebnisse der Qualitätsüberprüfungen besprochen, sondern auch besonders interessante, schwierige und komplexe Fälle kalibriert. Dazu werden relevante Trends, aktuelle „hot topics“ und aktuelle Entwicklungen in der Rechtsprechung diskutiert, um ein einheitliches Vorgehen des NetzDG-Teams sicherzustellen. Wo erforderlich werden Anpassungen der Anwendungsregeln für die Entfernung von Inhalten vorgenommen, um sie beispielsweise aktualisierten Community-Richtlinien oder einer Änderung der Rechtsprechung anzugleichen. In diesen Fällen erhalten, wo erforderlich, alle Mitglieder des NetzDG-Teams entsprechend angepasste Anwendungsregeln und Schulungsmaterialien.

Überprüfungen von Entscheidungen

Überprüfungen von Entscheidungen nach dem NetzDG: Wenn wir ein Video aufgrund einer NetzDG-Beschwerde gemäß einem der im NetzDG genannten Straftatbestände als rechtswidrig eingestuft haben, erhält der Uploader eine entsprechende Nachricht mit einem Link zu einem Antragsformular auf Überprüfung dieser Entscheidung. Gleiches gilt für den Beschwerdeführer, wenn seine Beschwerde bezüglich eines Videos mangels Verstoßes gegen einen der im NetzDG genannten Straftatbestände abgelehnt wurde.

Wird eine solche Überprüfung nach dem NetzDG beantragt, führt ein Mitglied des NetzDG-Teams, das die vorhergehende Entscheidung nicht getroffen hat, eine weitere Prüfung nach dem NetzDG durch, mit der die vorhergehende Entscheidung hinsichtlich des Verstoßes gegen einen der im NetzDG genannten Tatbestände entweder beibehalten oder revidiert wird. Das Ergebnis dieser weiteren Überprüfung wird in einer E‑Mail mitgeteilt.

Community-Richtlinien-Überprüfungen: Wenn YouTube im Hinblick auf ein Video einen Verstoß gegen die Community-Richtlinien feststellt, informiert YouTube den Uploader über die Entfernung und die Gründe dafür. Dabei erläutern wir dem Uploader, warum der Inhalt entfernt wurde, und stellen einen Link zur Verfügung, über den er mehr über die Entfernung des Inhalts erfahren kann, sowie einen Link zu einem Beschwerdeprozess für eine erneute Überprüfung des Inhalts anhand der Community-Richtlinien, sollte er mit der Entscheidung von YouTube nicht einverstanden sein. Bereits seit vielen Jahren haben Uploader die Möglichkeit, Inhalte erneut durch YouTube überprüfen zu lassen, wenn sie der Ansicht sind, dass ihr Inhalt nicht gegen unsere Community-Richtlinien verstößt. Das Verfahren zur erneuten Überprüfung wird hier ausführlich erklärt. Anträge auf Überprüfungen von Maßnahmen nach den Community-Richtlinien und Wiedereinstellungen sind Teil des Transparenzberichts „YouTube-Community-Richtlinien und ihre Anwendung“. Konkrete Zahlen dazu können auf dieser Internetseite abgerufen werden.

Prüfteams

Obwohl sich Technologien weiterentwickelt haben, die bei der Identifizierung einiger Arten kontroverser Inhalte hilfreich sein können – wie z. B. Objekte und Muster schnell und in großer Anzahl in Bildern, Videos und Audioaufnahmen zu finden –, sind es nach wie vor Menschen, die den Kontext besser beurteilen können. Beispielsweise können automatische Systeme nicht den Unterschied zwischen terroristischer Propaganda und kritischer Berichterstattung über solche Organisationen oder zwischen volksverhetzenden Inhalten und politischer Satire erkennen. Deshalb müssen in der Regel Menschen – gerade in Bereichen, in denen die Meinungsfreiheit betroffen ist – die Inhalte letztlich beurteilen.

Die Prüfung von Inhalten nach unseren Community-Richtlinien, die uns durch das Meldeverfahren übermittelt werden, wird – gestützt durch unsere Technologien – von YouTube- und Google-Mitarbeitern oder externen Dienstleistern durchgeführt. Durch regelmäßig durchgeführte Qualitätsprüfungen stellen wir sicher, dass unsere Prüfteams weltweit die richtigen Entscheidungen über beanstandete Inhalte treffen und regelmäßig Feedback zu ihren Entscheidungen erhalten. Unsere Prüfteams bestehen aus Tausenden von Mitarbeitern, die eine Vielzahl von Sprachen fließend beherrschen und die gemeldete Inhalte 24 Stunden am Tag, 7 Tage die Woche und 365 Tage im Jahr in Zeitzonen auf der ganzen Welt überprüfen. Diese Teams haben auch deutschsprachige Mitarbeiter.

In den Teams zur Bearbeitung sonstiger rechtlicher Beschwerden sind auch einige deutschsprachige Juristen tätig. Diese Mitarbeiter sind auf in der Bundesrepublik Deutschland geltende Gesetze geschult und können sich mit Mitarbeitern aus den lokalen Google Rechtsabteilungen beraten. Google beschäftigt ein großes Team von Juristen in vielen europäischen Ländern. Sie werden bei Bedarf in die rechtliche Analyse der Inhalte einbezogen; die Teams können zusätzliche Rechtsberatung durch externe Anwaltskanzleien vor Ort in Anspruch nehmen.

NetzDG-Team. Für die Bearbeitung von NetzDG-Beschwerden haben wir ein spezielles Team bei einem externen Dienstleister in Deutschland aufgebaut (NetzDG-Team). Je nach Anzahl der eingehenden NetzDG-Beschwerden kann die Anzahl der Mitglieder des NetzDG-Teams variieren. Im Berichtszeitraum waren 77 Personen mit NetzDG-Beschwerden befasst. Davon waren 61 Personen als Sachbearbeiter mit der Prüfung von Inhalten beschäftigt (einschließlich mehrerer erfahrener „Senior Content Reviewer“). Sie werden von fünf Teamleitern angeleitet und von sechs Qualitätsprüfern sowie zwei Trainern unterstützt.

Damit kulturelle Vielfalt gewährleistet ist, haben diese Prüfer unterschiedliche berufliche Hintergründe, sprechen verschiedene Sprachen und waren im Berichtszeitraum zwischen 21 und 55 Jahre alt. Alle Mitglieder des NetzDG-Teams beherrschen die deutsche Sprache fließend; für die meisten ist es ihre Muttersprache. Alle Mitglieder sprechen außerdem Englisch; jeweils 1 bis 30 Mitglieder des NetzDG-Teams beherrschen darüber hinaus mindestens eine der folgenden Sprachen: Türkisch, Russisch, Spanisch, Bulgarisch, Italienisch, Japanisch, Serbisch, Kurdisch und Ukrainisch. Diese Fremdsprachenkenntnisse erweisen sich als nützlich, um eine mögliche Verbindung zu Deutschland bei fremdsprachigen Inhalten beurteilen zu können. Im Berichtszeitraum hat ein Viertel (25 %) des NetzDG-Teams einen Universitätsabschluss wie einen Bachelor, einen Master oder ein Staatsexamen in Bereichen wie Politikwissenschaften, Dolmetschen, Medienwissenschaften, Betriebswirtschaftslehre, Gesundheitswissenschaften, Betriebstechnik, Archäologie oder Lehramt. Ein Teammitglied führt einen Doktortitel. Etwa 40 % des Teams haben eine abgeschlossene Berufsausbildung, etwa zum Einzelhändler, Koch, Industrie-, Büro-, Reise- oder Verlagskaufmann, Maurer oder in Bereichen wie Informations- und Medientechnologie, Logistikmanagement oder Lebensmitteltechnik.

Das NetzDG-Team wird, mindestens halbjährlich, sowohl zur Bewertung von Straftaten im Sinne des NetzDG als auch zu YouTubes Community-Richtlinien geschult.

Jedes Mitglied des NetzDG-Teams erhält eine Einführung und Einarbeitung in alle Community-Richtlinien, unsere Prozesse und technischen Systeme etc., ebenso wie rechtliche Schulungen zu den Straftatbeständen nach dem NetzDG. Zusätzlich zu dieser Einarbeitung führen wir in der Regel alle sechs Monate Pflichtschulungen zur Auffrischung der rechtlichen Kenntnisse nach dem NetzDG durch. Diese Schulungen werden in deutscher Sprache von einem Team durchgeführt, das sich regelmäßig aus externen Anwälten und Mitarbeitern der Rechtsabteilungen von YouTube und der Google Germany GmbH zusammensetzt. Wir bieten diese Schulungen in mehreren, auf der Größe der Schichtgruppen des NetzDG-Teams basierenden Sitzungen an, um so sicherzustellen, dass jedes Teammitglied, einschließlich der Teamleiter, Qualitätsprüfer und Trainer, an den Schulungen teilnehmen kann und in diesen Schulungen ausreichend Gelegenheit hat, Fragen zu klären und diskussionswürdige Beispiele zu besprechen (die teils schon im Vorfeld der Schulungen gesammelt werden). Dazu bieten wir weitere juristische Schulungen nach Bedarf an. Diese Ad-hoc-Schulungen werden von Mitarbeitern der Rechtsabteilung von YouTube mit der Unterstützung von Mitarbeitern der Rechtsabteilung der Google Germany GmbH nach dem „Train-The-Trainer“-Modell durchgeführt. Das heißt, wir schulen die Trainer des NetzDG-Teams, die die Inhalte dann an den Rest des NetzDG-Teams weitergeben. Sowohl die Schulungen zur Auffrischung als auch die rechtlichen Ad-hoc-Schulungen behandeln jeweils aktuelle Entwicklungen, Trends, neue Rechtsprechung sowie solche Arten von Beschwerden, deren Bearbeitung sich im letzten Halbjahreszeitraum als schwierig erwiesen hat. Wir führen zum Beispiel rechtliche Ad-hoc-Schulungen zu Themen wie religiöser Diskriminierung, Gewaltinhalten sowie Beleidigungen von Personen des öffentlichen Interesses und Politikern durch.

Das NetzDG-Team profitiert auch von Schulungen, in denen die Community-Richtlinien neuerlich erläutert werden. Diese Auffrischungen widmen sich neuen Entwicklungen und Trends, die für das Team relevant sind, wie beispielsweise Hassrede und Jugendschutz. Dazu gibt es spezielle Schulungen für besondere Bereiche wie Waffen, schädliche und gefährliche Streiche („pranks“) und Challenges, digitale Sicherheit und Falschmeldungen. Diese Schulungen zu den Community-Richtlinien werden von Mitarbeitern durchgeführt, die bei YouTube mit der Durchsetzung dieser Richtlinien betraut sind, in Zusammenarbeit mit Mitarbeitern aus der YouTube-Rechtsabteilung. Ferner erhält das NetzDG-Team wöchentlich sowie nach Bedarf weitere Sonderschulungen zu den Community-Richtlinien, soweit diese für das Team relevant sind.

Allen Mitgliedern des NetzDG-Teams stehen umfangreiche Betreuungsangebote und psychologische Unterstützung durch ein Team von deutschsprachigen Psychologen, Therapeuten und Trainern zur Verfügung. Dies umfasst auch regelmäßige wie auch nach Bedarf angesetzte Schulungen sowie individuelle Beratungen und Betreuungen. Das Team hat außerdem rund um die Uhr Zugang zu Beratungen über eine Support-Hotline. Wir stellen auch Einrichtungen zur Verfügung, die das Wohlbefinden unterstützen, wie z. B. Ruheräume und spezielle Privaträume für individuelle Therapiegespräche. Dies ist konsistent mit unseren Betreuungsangeboten, die wir allen Mitarbeitern bei Google und YouTube zur Verfügung stellen, die in diesen Bereichen arbeiten. Weiterhin bietet der externe Dienstleister reduzierte Raten für Mitgliedschaften in Fitnessstudios an.

Mitgliedschaft in Industrieverbänden

YouTube ist über Google in den folgenden, für das NetzDG einschlägigen Branchenverbänden vertreten:

Die FSM und der Verband eco betreiben Hotlines, über die Verbraucher Kontakt aufnehmen und Meldungen über angeblich rechtswidrige Inhalte einreichen können. Im Falle einer vermuteten Rechtswidrigkeit leitet die Hotline den Inhalt an den Provider zur Überprüfung weiter. In jedem Fall senden wir eine detaillierte Rückantwort mit Informationen zu der von uns getroffenen Entscheidung an die Beschwerdestelle.

Zusammenarbeit ist der entscheidende Faktor in der Bekämpfung rechtswidriger Inhalte. Wir arbeiten daher auch eng mit zivilgesellschaftlichen Organisationen zusammen, deren Ziel es ist, gegen Hassrede und Diskriminierungen vorzugehen, sowie mit Behörden, um lokale Vorgaben umzusetzen und gemeinsame Lösungen zu erarbeiten. Regelmäßig überprüfen wir unsere Community-Richtlinien und die zugehörigen Auslegungskriterien gemeinsam mit externen Partnern und Experten. Ebenso laden wir NGOs ein, an lokalen oder auch länderübergreifenden Workshops teilzunehmen, in denen wir sie über unsere Community-Richtlinien und Produktänderungen informieren, sie in der Nutzung der Google-Dienste, aber auch in Sicherheitsmaßnahmen bezüglich der Dienste schulen und mit ihnen über aktuelle Herausforderungen und Kernfragen diskutieren.

Sonstige Maßnahmen zum Schutz und zur Unterstützung der von rechtswidrigen Inhalten Betroffenen

Es gibt verschiedene Initiativen und Projekte, mit denen Google und YouTube gegen Hassrede im Internet vorgehen und Betroffene unterstützen.

Die Google.org Impact Challenge on Safety ist ein mit 10 Millionen Euro ausgestatteter Fond zur Unterstützung von Organisationen in ganz Europa, die sich mit Hass, Extremismus und dem Schutz von Kindern (sowohl online als auch offline) befassen. Durch die Finanzierung neuer und bestehender Projekte in ganz Europa hofft Google, Initiativen zur Bekämpfung von Hass und Extremismus zu unterstützen und jungen Menschen zu helfen, selbstbewusste digitale Bürger zu werden. Zu den Gewinnern gehören die in Deutschland ansässigen Organisationen HateAid und „Gefangene helfen Jugendlichen e. V.“ Mit dem Zuschuss will HateAid die Unterstützung für Opfer von Hassrede und Hassverbrechen im Internet verbessern, die Widerstandsfähigkeit der betroffenen Nutzer stärken und sie wieder in die Lage versetzen, sich online einzubringen, damit sie sich nicht von Hass zum Schweigen gebracht fühlen. Um die Rückfallquote unter gefährdeten deutschen Jugendlichen zu senken, bietet das Team von „Gefangene helfen Jugendlichen“ professionelle Unterstützung und Programme an, darunter Besuche in Gefängnissen und Gespräche mit ehemaligen Straftätern, damit gefährdete Jugendliche etwas über die realen Schäden von Kriminalität erfahren.

Seit vielen Jahren engagiert sich Google auch für die Förderung von Medienkompetenz, die Befähigung junger Menschen und Nutzer aller Altersgruppen und die Unterstützung von Lehrern mit Ressourcen für den Unterricht. Wir sind ständig bemüht, das Bewusstsein für unsere Meldemechanismen zu schärfen und unsere Nutzer über die Richtlinien, Einstellungen und Digital Wellbeing-Tools von Google und YouTube aufzuklären.

Seit 2013 unterstützt Google die „Freiwillige Selbstkontrolle Multimedia-Diensteanbieter e. V.“ (FSM e. V.) bei der Erstellung und Weiterentwicklung der Unterrichtsmaterialreihe „Medien in die Schule“, die Unterrichtseinheiten u. a. zu den Themen Meinungsbildung im Internet, Hassrede, Realität vs. Fiktion in den Medien, Informationskompetenz enthält.

Bereits 2009 hat YouTube, gemeinsam mit lokalen Partnern und unter der Schirmherrschaft von Bundeskanzlerin Merkel, die Initiative „361 Grad Respekt“ ins Leben gerufen, die zwischen 2009 und 2014, dann unter der Schirmherrschaft der amtierenden Familienministerin, mehrfach stattfand und 2016 unter dem Namen #NichtEgal mit zwei weiteren Durchgängen (2016 und 2018) erneut auflebte. Diese Initiativen zielten darauf ab, respektvolles Verhalten sowohl online als auch offline zu fördern und ermutigten junge Menschen mit Videowettbewerben und Schulworkshops gegen Hass und Diskriminierung, Stellung zu beziehen.

Mit finanzieller Förderung des philanthropischen Arms von Google, Google.org, startete „Freiwillige Selbstkontrolle Multimedia-Diensteanbieter e. V.“ (FSM e. V.) im Mai 2020 das Projekt „Weitklick“, das darauf abzielt, eine Blended-Learning-Plattform zu entwickeln, um Lehrkräfte über das Phänomen der Desinformation und den Umgang damit im Unterricht aufzuklären sowie Lehrkräfte, Schulen und Journalisten zusammenzubringen.

Wir investieren weiterhin in ein globales Netzwerk aus über 300 Wissenschaftlern, behördlichen Kooperationspartnern und NGOs, die ihr wertvolles Fachwissen in unser System einbringen. Dazu gehören in Deutschland beispielsweise die Amadeu Antonio Stiftung, die Nummer gegen Kummer und das Violence Prevention Network.

Automatisierte Verfahren

Zur Durchsetzung der YouTube-Community-Richtlinien nutzt YouTube einen „Mensch + Maschine“-Ansatz, um unangemessene Inhalte zu melden und eine Prüfung anhand der Community-Richtlinien zu ermöglichen. Meldungen über mögliche Verstöße gegen die Community-Richtlinien können von den automatischen Meldesystemen von YouTube, von Mitgliedern des Priority Flagger-Programms (NGOs, Regierungsbehörden) oder von Nutzern aus der großen YouTube-Community stammen.

YouTube setzt seit jeher eine Mischung aus menschlichen Prüfern und Technologie ein, um gegen unzulässige Inhalte auf der Plattform vorzugehen. 2017 begann YouTube damit, maschinelles Lernen einzusetzen, um Inhalte für die manuelle Überprüfung durch die Prüfteams aufzufinden. Diese Kombination aus intelligenter Erkennungstechnologie und hoch qualifizierten menschlichen Prüfern hat es YouTube ermöglicht, seine Richtlinien mit zunehmender Geschwindigkeit konsequent durchzusetzen.

Automatische Systeme ermöglichen es YouTube, Inhalte in großem Umfang zur Überprüfung zu melden, und helfen uns dabei, Millionen von unangemessenen Videos zu entfernen, bevor sie überhaupt gesehen werden. Die hohen Investitionen von YouTube in maschinelles Lernen mit dem Ziel, die Entfernung von Inhalten zu beschleunigen, zahlt sich insbesondere in Bereichen mit hohem Risiko und geringer Menge (wie gewalttätiger Extremismus) und in Bereichen mit großen Mengen (wie Spam) aus.

Aktuelle Daten zur Entfernung von Inhalten aufgrund der YouTube-Community-Richtlinien finden Sie in unserem Bericht über die Durchsetzung der Richtlinien hier.

In der Praxis bedeutet der Einsatz von maschinellem Lernen nicht weniger, sondern mehr manuelle Überprüfungen durch unsere Mitarbeiter. Unsere Systeme sind auf die menschliche Überprüfung angewiesen, um zu beurteilen, ob Inhalte gegen unsere Richtlinien verstoßen.

Wenn wir ein Video entdecken, das gegen unsere Richtlinien verstößt, entfernen wir dieses und verwarnen den Kanal(inhaber). Wir schließen Kanäle vollständig, wenn diese sich der Veröffentlichung von Inhalten verschrieben haben, die unsere Community-Richtlinien verbieten, oder sie einen einzelnen, außerordentlich schweren Verstoß begehen, wie die Darstellung des sexuellen Missbrauchs von Kindern. Die weit überwiegende Mehrheit der versuchten Verstöße besteht darin, dass Personen versuchen, Spam oder jugendgefährdende Inhalte hochzuladen.

Um mehr darüber zu erfahren, wie wir gegen diese Art von Inhalten vorgehen und welche Auswirkungen dies hat, klicken Sie hier.

Zusätzlich entwickeln wir Werkzeuge, mit denen Uploader Kommentare zu ihren Videos moderieren können. Sie können zum Beispiel alle Kommentare bis zur Überprüfung zunächst zurückhalten oder automatisch Kommentare mit Links oder möglicherweise anstößigen Inhalten zurückhalten. Mehr als eine Million der Uploader nutzen diese Tools inzwischen, um die Kommentare auf ihren Kanälen zu moderieren.

Erläuterung der Bestimmungen in den Nutzungsbedingungen über die Zulässigkeit der Verbreitung von Inhalten auf YouTube

Die Nutzungsbedingungen von YouTube sind übersichtlich gegliedert und weisen u. a. das Kapitel „Ihre Inhalte und Ihr Verhalten“ auf, in dem den Nutzern in verständlicher Sprache erläutert wird, welche Inhalte und welches Verhalten auf der Plattform unzulässig ist. Die Nutzungsbedingungen weisen ausdrücklich aus, dass die Nutzung des Dienstes den Nutzungsbedingungen, den YouTube-Community-Richtlinien, den allgemeinen YouTube-Richtlinien sowie den Richtlinien zu Sicherheit und Urheberrecht unterliegen (zusammen als „Vereinbarung“ bezeichnet). Nach den Nutzungsbedingungen dürfen keine Inhalte eingestellt werden, die gegen die Vereinbarung oder das Gesetz verstoßen. Die in diese Vereinbarung mit den Nutzern einbezogenen Community-Richtlinien sind gleichfalls übersichtlich und verständlich in fünf Rubriken gegliedert, sie betreffen: Spam und irreführende Praktiken, sensible Inhalte, Gewalt darstellende oder gefährliche Inhalte, Waren, die gesetzlichen Beschränkungen unterliegen, und Fehlinformationen. Jede dieser Rubriken unterteilt sich in weitere Unterrubriken, die den jeweiligen Richtlinien entsprechen. Jede dieser Richtlinien beschreibt zunächst allgemein, welche Inhalte auf YouTube nicht zulässig sind und warum dies der Fall ist. Unter der Überschrift „Was bedeutet diese Richtlinie für dich?“ werden die Nutzer in den Richtlinien sodann darüber informiert, was dies für ihr Verhalten auf der Plattform konkret bedeutet. Daran schließt sich in der Regel ein Kapitel „Beispiele“ an, in dem konkrete Beispiele von Inhalten aufgelistet sind, die unter der betreffenden Richtlinie auf YouTube nicht erlaubt sind. Schließlich werden die Nutzer in einem Kapitel „Was passiert, wenn Inhalte gegen diese Richtlinien verstoßen?“ über mögliche Konsequenzen bei Verstößen informiert. Diese Bestimmungen regeln somit in detaillierten Beschreibungen unter Beigabe erläuternder Beispiele die Zulässigkeit der Verbreitung von Inhalten auf YouTube in nutzerfreundlicher Gestaltung und Sprache. Die Regelungen sind einfach auffindbar, sie sind klar und verständlich formuliert und entsprechen damit den Anforderungen von §§ 307 Abs. 1, 308 und 309 BGB. Die Regelungen in diesen Richtlinien knüpfen jeweils an objektive, überprüfbare Tatbestände an und erfüllen so die Anforderungen der Rechtsprechung. Darüber hinaus werden die Nutzer detailliert darüber informiert, wie sie über etwaige Verstöße gegen die Nutzungsbedingungen bzw. Community-Richtlinien in Kenntnis gesetzt werden und wie und wo sie Stellungnahmen bzw. Beschwerden gegen etwaige Maßnahmen einreichen können.

Beispiele für Beschwerden

In jedem Berichtszeitraum sammeln wir eine Reihe von Beispielen, die unsere Entscheidungen über mutmaßlich rechtswidrige Inhalte besser veranschaulichen, um damit ein Bild über die Breite der von dem NetzDG abgedeckten Inhalte und die Art der von uns zu entfernenden Inhalte zu zeichnen.

Beschwerdezeitraum
Jan. 2018 bis Juni 2018
Typ
Rechtlich nicht relevante Beschwerde

Ein Musikvideo, das einen nackten Mann zeigt, der auf künstlerische Weise aus dem Meer entsteigt, wurde mehrmals wegen angeblich rechtswidrigen sexuellen Inhalts gemeldet.

Beschwerdezeitraum
Jan. 2018 bis Juni 2018
Typ
Rechtlich nicht relevante Beschwerde

Eine Rede von Angela Merkel über die Zugehörigkeit des Islams zu Deutschland wurde sowohl als Hassrede als auch als terroristischer Inhalt gemeldet, weil Angela Merkel nach Ansicht der Beschwerdeführer den Staat in Gefahr bringe und Deutschland in eine Katastrophe führe.

Beschwerdezeitraum
Jan. 2018 bis Juni 2018
Typ
Rechtlich nicht relevante Beschwerde

Ein Video von Jan Böhmermann, in dem er eine rechtsextreme Gruppe zum Gegenstand einer kritischen und satirischen Diskussion macht, erhielt mehrere Meldungen wegen angeblicher Hassrede, Gewalt, Spam, Verleumdung und Beleidigung.

Beschwerdezeitraum
Jan. 2018 bis Juni 2018
Typ
Rechtlich nicht relevante Beschwerde

Ein Kommentar, welcher das "Kuscheln zu Hause” anpreist, wurde als "schädliche oder gefährliche Handlung” gemeldet.

Beschwerdezeitraum
Jan. 2018 bis Juni 2018
Typ
Weiterleitung an eine auf Strafrecht spezialisierte Anwaltskanzlei

Ein Video, das einen bekannten deutschen islamistischen Hassprediger zeigt, der zu "Dua" und "Tawaf" aufruft, wobei "Takbir"-Zwischenrufe aus dem Publikum zu hören sind. Das Video wurde aufgrund terroristischer Inhalte mehrfach im Rahmen des NetzDG gemeldet. Da das Daʿwa-Spektrum jedoch auch andere Interpretation als pure Proganda zulässt und im Video keine Propaganda identifiziert werden konnte, wurde das Video von der externen Strafrechtskanzlei als rechtmäßig beurteilt.

Entfernungen von Inhalten nach dem Netzwerkdurchsetzungsgesetz

Google stellt in diesem Bericht Informationen über Entfernungen von Inhalten, zugehörige Richtlinien und Beschwerdeverfahren vor, die im Rahmen des NetzDG Anwendung finden.

Bericht herunterladen

YouTube-Berichtsarchiv
Ungeeignete oder gefährliche Inhalte
Terroristische oder verfassungswidrige Inhalte
Hassrede oder politischer Extremismus
Ungeeignete oder gefährliche Inhalte
Terroristische oder verfassungswidrige Inhalte
Hassrede oder politischer Extremismus
Ungeeignete oder gefährliche Inhalte
Terroristische oder verfassungswidrige Inhalte
Hassrede oder politischer Extremismus
Innerhalb von einer Woche
Zu einem späteren Zeitpunkt
Ungeeignete oder gefährliche Inhalte
Terroristische oder verfassungswidrige Inhalte
Hassrede oder politischer Extremismus