Raport przejrzystości

Usuwanie treści na podstawie ustawy NetzDG

Ustawa o egzekwowaniu prawa w sieci (NetzDG) zaczęła obowiązywać w Niemczech 1 października 2017 roku. Nakładała ona na sieci społecznościowe wymóg wprowadzenia skutecznej i przejrzystej metody obsługi skarg dotyczących treści niezgodnych z prawem w sposób opisany w przepisach NetzDG. Poza tym zobowiązywała takie sieci do publikowania 2 razy w roku sprawozdań z przejrzystości. Jednak ze względu na priorytet aktu o usługach cyfrowych (DSA) w UE, od 25 sierpnia 2023 r. przepisy NetzDG nie obowiązują już w YouTube.

Raporty, które nadal są tutaj dostępne, zawierają dane na temat naszej organizacji i przyjętych procedur oraz liczby otrzymanych skarg i ilości usuniętych treści. Zawierają też ogólne informacje o praktykach i zasadach usuwania treści. Dostępne tu raporty nie zawierają bieżących informacji o tych kwestiach i mogą być nieaktualne.

Usuwanie treści z YouTube na podstawie ustawy o egzekwowaniu prawa w sieci

Ustawa o egzekwowaniu prawa w sieci (NetzDG) wymaga od sieci społecznościowych liczących ponad 2 miliony zarejestrowanych użytkowników w Niemczech lokalnego usuwania treści (np. filmów i komentarzy), które są „w sposób oczywisty niezgodne z prawem”, w ciągu 24 godzin od otrzymania skargi dotyczącej treści niezgodnych z prawem w świetle ustawy NetzDG (dalej „skarga” lub „skarga na podstawie ustawy NetzDG”). Jeśli legalność (lub jej brak) nie jest oczywista, dostawca ma maksymalnie 7 dni na podjęcie decyzji dotyczącej postępowania w danym przypadku. W wyjątkowych sytuacjach czas na podjęcie decyzji może być dłuższy – jeśli użytkownicy przesyłający treści, czyli użytkownicy, których filmy lub komentarze są zapisywane w YouTube (przesyłający), zostaną poproszeni o odniesienie się do uwag lub gdy decyzja jest przekazywana organizacji branżowej akredytowanej jako instytucja regulowania wewnętrznego. Do treści kwalifikujących się do usunięcia zgodnie z ustawą NetzDG musi odnosić się któryś z uwzględnionych w niej 22 przepisów niemieckiego kodeksu karnego (opisanych w paragrafie 1 (3) ustawy NetzDG). Wszystkie skargi na podstawie ustawy NetzDG rozpatrujemy pod kątem przestępstw, o których mowa w paragrafie 1 (3) ustawy NetzDG. Jeśli stwierdzimy, że w świetle paragrafu 1 (3) ustawy NetzDG treści są niezgodne z prawem, stosujemy ograniczenia lokalne. Treści, które wyraźnie naruszają nasze globalne wytyczne dla społeczności YouTube, usuwamy globalnie.

Ustawa o zwalczaniu prawicowego ekstremizmu i przestępstw z nienawiści poszerzyła definicje przestępstw wymienionych w paragrafie 1 (3) ustawy NetzDG. Na przykład przestępstwo zakłócania spokoju publicznego przez grożenie popełnieniem czynu zabronionego (paragraf 126) oraz przestępstwo nagradzania i aprobowania czynu zabronionego (paragraf 140) zostały zmienione tak, aby obejmowały teraz także przestępstwo spowodowania niebezpiecznych obrażeń ciała (paragraf 224). Poza tym 1 lutego 2022 roku do przestępstw wymienionych w ustawie NetzDG dodano paragraf 189 niemieckiego kodeksu karnego (znieważenie pamięci zmarłych). Te rozszerzenia i uzupełnienia wiążą się z dodaniem niejednoznacznych warunków prawnych do przeprowadzanych weryfikacji, co zwiększa ryzyko podjęcia błędnych decyzji.

Ustawa NetzDG nakłada na sieci społecznościowe wymóg tworzenia i publikowania co dwa lata raportów na temat sposobu postępowania z takimi skargami (tzw. raportów przejrzystości). Ten raport publikujemy w ramach tego właśnie zobowiązania. Uzupełniliśmy go o informacje dotyczące okresu raportowania od stycznia do czerwca oraz od lipca do grudnia każdego roku. Domyślny raport dostępny tutaj uwzględnia poprzedni okres raportowania, jednak użytkownicy mogą również zobaczyć dane z poprzednich okresów. Obecną wersję raportu można również pobrać (na końcu raportu).

Ogólne uwagi o postępowaniu z materiałami zgłaszanymi jako niezgodne z prawem

Obecnie do YouTube co minutę przesyłanych jest ponad 500 godzin filmów. W ten sposób powstaje największa aktywna kolekcja wytworów kultury ludzkiej zgromadzona kiedykolwiek w jednym miejscu: społeczność, w której ludzie z całego świata mogą tworzyć i udostępniać koncepcje oraz opinie. YouTube musi mieć pewność, że użytkownicy przestrzegają reguł, które chronią i utrzymują całą społeczność. Wytyczne dla społeczności zabraniają publikowania niektórych kategorii materiałów, w tym treści o charakterze jednoznacznie seksualnym, spamu, wypowiedzi szerzących nienawiść, nękających lub zachęcających do przemocy. Treści naruszające nasze wytyczne dla społeczności są usuwane lub ograniczane globalnie. Dzięki zastosowaniu modelu „ludzie + automatyka” możemy dużo sprawniej czuwać nad przestrzeganiem naszych wytycznych przez użytkowników YouTube. Więcej informacji na ten temat zawiera raport dotyczący egzekwowania wytycznych dla społeczności YouTube.

Przestrzegamy prawa niemieckiego oraz innych przepisów obowiązujących w danym kraju. Gdy otrzymujemy prośbę o usunięcie treści potencjalnie niezgodnych z prawem, starannie ją weryfikujemy. Jeśli dochodzi do naruszenia przepisów obowiązujących w danym kraju, blokujemy lokalnie te treści, które uznamy za nielegalne. Takie samo podejście stosujemy przy każdym innym wniosku prawnym dotyczącym usunięcia treści. Jak wskazujemy w raporcie, podjęcie decyzji o niezgodności treści z przepisami obowiązującymi w danym kraju należy niekiedy do najtrudniejszych zadań z zakresu oceny prawnej, jakie muszą wykonać weryfikatorzy z YouTube.

Dążenie do stworzenia w YouTube atrakcyjnej społeczności o charakterze globalnym nie mogłoby zostać zrealizowane bez pracy wielozadaniowego zespołu. Zaliczają się do niego specjaliści ds. zasad, prawnicy, inżynierowie, menedżerowie produktu, analitycy danych, weryfikatorzy treści, analitycy działalności i zagrożeń oraz wiele innych osób. Ponadto wkład globalnej społeczności użytkowników, organizacji pozarządowych, instytucji państwowych oraz partnerów branżowych – w tym innych firm technologicznych – odgrywa ważną rolę w kształtowaniu YouTube jako platformy, która działa dla użytkowników i twórców na całym świecie.

Zgłoszone elementy

Te dane uwzględniają tylko skargi dotyczące treści uznawanych za nielegalne w świetle sekcji 1 paragrafu 3 ustawy NetzDG (ale nie skargi otrzymane przez kanały do przesyłania zgłoszeń, które wyraźnie nie prowadzą do oceny zgodnie z ustawą NetzDG).

Termin „skarga” odnosi się do pojedynczych elementów w tym sprawozdaniu z przejrzystości. Jeśli wiele elementów (np. wiele filmów lub komentarzy) podlega skardze na podstawie ustawy NetzDG, liczymy 1 skargę na element. Jeśli na przykład otrzymujemy skargę na podstawie ustawy NetzDG zawierającą 3 różne filmy, liczymy 3 skargi, co oznacza 1 skargę na każdy zgłoszony element. Tak więc w tym raporcie liczymy każdą pojedynczą skargę dotyczącą filmu lub komentarza jako 1 element. Na poniższych wykresach przedstawiamy dane o liczbie skarg (elementów), które zgłoszono w 6-miesięcznym okresie raportowania.

Łączna liczba zgłoszonych elementów
193 131
Ta wartość to łączna liczba elementów zgłoszonych w okresie raportowania.

Łączna liczba elementów zgłoszonych według osoby zgłaszającej

Zgłoszone elementyUżytkownikAgencja020 00040 00060 00080 000100 000120 000140 000130 55962 572
EntityZgłoszone elementy
Użytkownik130 559
Agencja62 572

Powyższy wykres przedstawia liczbę elementów zgłoszonych w okresie raportowania według rodzaju podmiotu zgłaszającego (użytkownicy oraz agencje zgłaszające nieodpowiednie treści). Dane opierają się na informacjach podawanych przez samych zgłaszających w trakcie tworzenia zgłoszenia i nie możemy sprawdzić, czy użytkownik, który wybiera opcję „agencja zgłaszająca nieodpowiednie treści”, rzeczywiście reprezentuje taką instytucję.

Zgłaszane elementy według powodu skargi

Zgłoszone elementyPrywatnośćZniesławianie lub znieważanieDziałania szkodliwe lub niebezpiec…Treści erotyczneTreści nielegalne lub dotyczące ter…Szerzenie nienawiści lub polityczn…Przemoc010 00020 00030 00040 00050 00060 0006 51933 52925 40032 68313 58456 92924 487
CategoryZgłoszone elementy
Prywatność6 519
Zniesławianie lub znieważanie33 529
Działania szkodliwe lub niebezpieczne25 400
Treści erotyczne32 683
Treści nielegalne lub dotyczące terroryzmu13 584
Szerzenie nienawiści lub polityczny ekstremizm56 929
Przemoc24 487

Powyższy wykres przedstawia liczbę elementów zgłoszonych w okresie raportowania według powodu skargi. Wykres opiera się na danych podawanych przez osoby przesyłające zgłoszenia.

Liczba usunięć

Poniższe wykresy przedstawiają liczbę elementów usuniętych lub zablokowanych w okresie raportowania w wyniku skargi na podstawie ustawy NetzDG.

Łączna liczba usuniętych elementów
30 870
Ta wartość odpowiada liczbie elementów usuniętych lub zablokowanych w okresie raportowania.

Usunięte elementy według strony zgłaszającej

Elementy usunięteUżytkownikAgencja02 5005 0007 50010 00012 50015 00017 50020 00022 50025 00022 8877 983
EntityElementy usunięte
Użytkownik22 887
Agencja7 983

Powyższy wykres przedstawia liczbę elementów usuniętych lub zablokowanych w okresie raportowania według rodzaju podmiotu zgłaszającego (użytkownicy oraz agencje zgłaszające nieodpowiednie treści). Dane opierają się na informacjach podawanych przez samych zgłaszających w trakcie tworzenia zgłoszenia i nie możemy sprawdzić, czy użytkownik, który wybiera opcję „agencja zgłaszająca nieodpowiednie treści”, rzeczywiście reprezentuje taką instytucję.

Usunięte elementy według przyczyny powodu skargi

Elementy usuniętePrywatnośćZniesławianie lub znieważanieDziałania szkodliwe lub niebezpiec…Treści erotyczneTreści nielegalne lub dotyczące ter…Szerzenie nienawiści lub polityczn…Przemoc02 0004 0006 0008 00010 00012 0003745 7904 9133 0161 77111 8123 194
CategoryElementy usunięte
Prywatność374
Zniesławianie lub znieważanie5 790
Działania szkodliwe lub niebezpieczne4 913
Treści erotyczne3 016
Treści nielegalne lub dotyczące terroryzmu1 771
Szerzenie nienawiści lub polityczny ekstremizm11 812
Przemoc3 194
Powyższy wykres przedstawia liczbę elementów usuniętych lub zablokowanych w okresie raportowania według powodu skargi. Wykres opiera się na danych podawanych przez osoby przesyłające zgłoszenia. Rzeczywiste powody usunięcia lub zablokowania treści mogą być inne.

Egzekwowanie wytycznych dla społeczności a przepisy ustawy NetzDG

Usunięte lokalnie (ustawa NetzDG)Usunięte globalnie (wytyczne dla społeczności)PrywatnośćZniesławianie lub znieważanieDziałania szkodliwe lub niebezpiec…Treści erotyczneTreści nielegalne lub dotyczące ter…Szerzenie nienawiści lub polityczn…Przemoc02 0004 0006 0008 00010 00012 000572159511308491263175 5754 8183 0051 46311 3213 168
CategoryUsunięte lokalnie (ustawa NetzDG)Usunięte globalnie (wytyczne dla społeczności)
Prywatność57317
Zniesławianie lub znieważanie2155 575
Działania szkodliwe lub niebezpieczne954 818
Treści erotyczne113 005
Treści nielegalne lub dotyczące terroryzmu3081 463
Szerzenie nienawiści lub polityczny ekstremizm49111 321
Przemoc263 168
Powyższy wykres przedstawia porównanie elementów zablokowanych tylko lokalnie z powodu powiązania z przestępstwami wymienionymi w ustawie NetzDG i elementów usuniętych na całym świecie z powodu naruszania naszych wytycznych dla społeczności. W tym kontekście elementy mogą zarówno naruszać nasze wytyczne dla społeczności, jak i dotyczyć przestępstw wymienionych w ustawie NetzDG. Niebieskie kolumny na wykresie przedstawiają elementy, które zostały zablokowane lokalnie tylko ze względu na powiązanie ich z przestępstwami wymienionymi w ustawie NetzDG. Czerwone kolumny przedstawiają elementy, które zostały usunięte globalnie z powodu naruszenia ustawy NetzDG i wytycznych dla społeczności lub tylko ze względu na naruszenie wytycznych dla społeczności.
Skargi na podstawie ustawy NetzDGBieżący cykl raportowaniaPoprzedni cykl raportowania (6 miesięcy temu)Poprzedni cykl raportowania (12 miesięcy temu)
Łączna liczba zgłoszonych elementów193 131233 440282 858
Łączna liczba usuniętych/zablokowanych elementów30 87032 15050 717
Odsetek zgłoszonych elementów, które zostały usunięte/zablokowane15,98%13,77%17,93%

W tabeli powyżej przedstawiamy porównanie łącznej liczby elementów zgłoszonych na podstawie ustawy NetzDG, łącznej liczby elementów zablokowanych lub usuniętych oraz odsetka zgłoszonych elementów, które zostały zablokowane lub usunięte, w tym i w 2 poprzednich okresach raportowania.

Zweryfikowane agencje zgłaszające

AgencjaZgłoszone elementyElementy usunięte
Eco00
FSM10
jugendschutz.net1812

Tabela przedstawia liczbę elementów, które otrzymaliśmy ze znanych nam agencji zgłaszających nieodpowiednie treści działających na obszarze obowiązywania ustawy NetzDG i upoważnionych do rozpatrywania kwestii materiałów wizualnych związanych z wykorzystywaniem seksualnym dzieci (CSAI) na podstawie umów z Federalnym Biurem Policji Kryminalnej (BKA, niem. Bundeskriminalamt) i Federalną Agencją Ochrony Dzieci i Młodzieży w Mediach (BzKJ, niem. Bundeszentrale für Kinder- und Jugendmedienschutz): Eco, Freiwillige Selbstkontrolle Multimedia-Diensteanbieter e.V. oraz Jugendschutz.net. Dane zawarte w tabeli uwzględniają pierwotną decyzję podjętą w sprawie danego zgłoszenia. Nie pokazują one ostatecznego stanu elementów zgłoszonych w okresie raportowania.

Uzyskiwanie informacji od osób przesyłających zgłoszenie i przesyłających treści do usługi

Ustawa NetzDG zezwala sieciom społecznościowym na kontaktowanie się z osobami przesyłającymi materiały, gdy pojawi się problem z prawdziwością stwierdzanych faktów lub istotne są inne okoliczności. Do uzyskania racjonalnej odpowiedzi niezbędna jest jednak szczegółowa i umotywowana skarga poddająca w wątpliwość prawdziwość danego oświadczenia. Brak odpowiedniego uzasadnienia w większości skarg prawnych na podstawie ustawy NetzDG (nawet po wyraźnym poproszeniu przez YouTube o dodatkowe informacje) powoduje, że nie ma w takich wypadkach wystarczających podstaw do skontaktowania się z osobami przesyłającymi materiały.

Interakcja z osobą przesyłającą
0
Łączna liczba elementów, które zostały przekazane do osób przesyłających, aby uzyskać ich opinię na temat zgłaszanej kwestii.
Skargi nierozwiązane
5 234
Łączna liczba elementów, w przypadku których potrzebowaliśmy dodatkowych informacji od osoby przesyłającej zgłoszenie.

Zwracanie się o poradę do podmiotów zewnętrznych

W prawie karnym występują przypadki, które są złożone i wymagają specjalistycznej wiedzy prawniczej. Możemy wtedy poprosić o poradę instytucję zewnętrzną, np. radcę prawnego czy jedną z instytucji regulowania wewnętrznego specjalizujących się w sprawach z zakresu ustawy NetzDG.

Instytucje regulowania wewnętrznego
12
Łączna liczba elementów przekazanych instytucji regulowania wewnętrznego. Decyzje podjęte przez instytucję regulowania wewnętrznego „FSM” (niem. Freiwillige Selbstkontrolle Multimedia-Diensteanbieter) są dostępne tutaj.
Zewnętrzny doradca
2
Łączna liczba elementów, w przypadku których potrzebowaliśmy zewnętrznej porady w trakcie podejmowania decyzji.

Liczba treści uznanych za niezgodne z prawem na podstawie ustawy NetzDG

Rozpatrujemy wszystkie skargi wniesione na podstawie ustawy NetzDG i dotyczące treści niezgodnych z prawem, aby ustalić, czy w przypadku zgłoszonych treści dopuszczono się przestępstw wymienionych w paragrafie 1 (3) tej ustawy.

Łączna liczba elementów niezgodnych z prawem w świetle ustawy NetzDG
7 000

Ta wartość to liczba elementów usuniętych lub zablokowanych w okresie raportowania, które zostały sklasyfikowane jako niezgodne z prawem w świetle ustawy NetzDG (powiązane z jednym z wymienionych w tej ustawie przestępstw).

Czas rozpatrywania w przypadku treści uznanych za niezgodne z prawem na podstawie ustawy NetzDG

Wykresy w tej sekcji przedstawiają całkowitą liczbę elementów, które usunęliśmy lub zablokowaliśmy w okresie raportowania, ponieważ w świetle ustawy NetzDG zostały one uznane za niezgodne z prawem (powiązane z jednym z wymienionych w tej ustawie przestępstw). Elementy są podzielone według czasu rozpatrywania. Czas rozpatrywania to czas od otrzymania skargi do usunięcia lub zablokowania zgłaszanych elementów.

Czas rozpatrywania według osoby zgłaszającej

AgencjaUżytkownikMniej niż 24 godz.Mniej niż 48 godz.Mniej niż tydzieńDłużej05001 0001 5002 0002 5003 0003 5004 0004 5002 0251576454 15934221830
TimeAgencjaUżytkownik
Mniej niż 24 godz.2 0254 159
Mniej niż 48 godz.157342
Mniej niż tydzień64218
Dłużej530

W przeciwieństwie do poprzednich raportów powyższy wykres przedstawia czas rozpatrywania tylko w przypadku elementów, które zostały powiązane z przestępstwami wymienionymi w ustawie NetzDG i w związku z tym usunięte lub zablokowane w okresie raportowania, w podziale według rodzaju podmiotu zgłaszającego (użytkownicy i agencje zgłaszające nieodpowiednie treści). W menu pod wykresem można znaleźć dane dotyczące czasu rozpatrywania w przypadku wszystkich elementów usuniętych lub zablokowanych w poprzednich okresach raportowania. Uwaga: te dane opierają się na informacjach podawanych przez samych zgłaszających w trakcie tworzenia zgłoszenia i nie możemy zweryfikować, czy użytkownik, który wybiera opcję „agencja zgłaszająca nieodpowiednie treści”, rzeczywiście reprezentuje taką instytucję. Czas rozpatrywania może być dłuższy niż 7 dni w przypadku problemów technicznych, złożonego charakteru zgłoszeń wymagającego zasięgnięcia porady zewnętrznej lub rzadko spotykanych języków.

Czas rozpatrywania według powodu skargi

Mniej niż 24 godz.Mniej niż 48 godz.Mniej niż tydzieńDłużejPrywatnośćZniesławianie lub znieważanieDziałania szkodliwe lub niebezpiec…Treści erotyczneTreści nielegalne lub dotyczące ter…Szerzenie nienawiści lub polityczn…Przemoc05001 0001 5002 0002 5003 000
PowódMniej niż 24 godz.Mniej niż 48 godz.Mniej niż tydzieńDłużej
Prywatność883192
Zniesławianie lub znieważanie2 2401495230
Działania szkodliwe lub niebezpieczne18036300
Treści erotyczne154950
Treści nielegalne lub dotyczące terroryzmu59043310
Szerzenie nienawiści lub polityczny ekstremizm2 5512351293
Przemoc38124160
PowódMniej niż 24 godz.Mniej niż 48 godz.Mniej niż tydzieńDłużej
Prywatność883192
Zniesławianie lub znieważanie2 2401495230
Działania szkodliwe lub niebezpieczne18036300
Treści erotyczne154950
Treści nielegalne lub dotyczące terroryzmu59043310
Szerzenie nienawiści lub polityczny ekstremizm2 5512351293
Przemoc38124160

Powyższe wykresy przedstawiają czas rozpatrywania w przypadku elementów, które zostały powiązane z przestępstwami wymienionymi w ustawie NetzDG i w związku z tym usunięte lub zablokowane w okresie raportowania, w podziale według powodów skargi. Wykresy opierają się na danych przekazywanych przez samych zgłaszających w momencie tworzenia zgłoszenia. Rzeczywiste powody usunięcia lub zablokowania treści mogą być inne.

Odsetek elementów, które zostały usunięte lub zablokowane w ciągu 24 godzin od wpłynięcia skargi na podstawie ustawy NetzDG, ponieważ zostały uznane za niezgodne z prawem w świetle tej ustawy.

Ujawnianie informacji na potrzeby badań

0
Powyższa liczba wskazuje, ile razy serwis YouTube ujawnił naukowcom informacje zgodnie z paragrafem 5a ustawy NetzDG.

Żądania informacji o użytkownikach

Instytucje państwowe, sądy i strony w sprawach cywilnych często proszą firmy telekomunikacyjne i technologiczne o dane użytkowników. W tym raporcie ujawniamy informacje o liczbie i rodzajach żądań, jakie otrzymujemy od instytucji państwowych.

Mechanizmy, powiadamianie, sposoby zgłaszania i ocena

YouTube dąży do osiągnięcia równowagi pomiędzy „czterema obszarami swobody”: wolnością wypowiedzi, swobodnym dostępem do informacji, swobodą korzystania z możliwości oraz swobodą przynależności. Egzekwowanie wytycznych dla społeczności i przepisów prawa jest próbą zachowania tej równowagi oraz ochrony społeczności YouTube. Nie jest to łatwe, szczególnie w przypadku globalnej platformy, która działa w społeczeństwach o różnych standardach w zakresie swobody wypowiedzi.

Mechanizmy przesyłania skarg na temat treści uważanych za niezgodne z prawem w świetle ustawy NetzDG

Użytkownikom w Niemczech YouTube zapewnia wbudowany, intuicyjny oraz łatwo, bezpośrednio i zawsze dostępny mechanizm zgłaszania skarg na podstawie ustawy NetzDG. Procedura przesyłania skarg prawnych na podstawie ustawy NetzDG dla zalogowanych użytkowników jest zintegrowana z funkcją zgłaszania dostępną pod każdym filmem i przy każdym komentarzu (3 kropki). Osoba zgłaszająca może kliknąć pole wyboru „Uważam, że widoczność tych treści powinna być ograniczona zgodnie z Ustawą o egzekwowaniu prawa w sieci (NetzDG)”. Pojawi się krótki formularz internetowy, w którym osoba przesyłająca zgłoszenie będzie mogła podać dodatkowe szczegóły.

Zalogowani oraz niezalogowani użytkownicy YouTube mogą również skorzystać z formularza internetowego do zgłaszania skarg prawnych w związku z ustawą NetzDG. Formularz do złożenia skargi na podstawie ustawy NetzDG można znaleźć w menu głównym YouTube oraz na stronie Nota prawna (stronie kontaktowej dostępnej dla wszystkich użytkowników w Niemczech).

Przeciętny użytkownik, który zwykle jest laikiem w kwestiach prawnych, może się poczuć przytłoczony całym zestawieniem złożonych przestępstw, a nawet zniechęcić do zgłaszania czegokolwiek. Taka osoba nie powoła się raczej na odpowiednie zapisy niemieckiego kodeksu karnego podczas składania skargi prawnej na podstawie ustawy NetzDG. Ponadto niektóre zgłaszane treści mogą stanowić naruszenie większej liczby wymienionych przestępstw. Na przykład film opublikowany w celu pozyskania nowych członków lub zwolenników organizacji przestępczej bądź terrorystycznej (§ 129, 129a niemieckiego kodeksu karnego) zwykle prezentuje też symbole takie jak flagi, co może podlegać karze zgodnie z zapisem paragrafów 86 i 86a tego kodeksu. Taki film może również spełniać warunki definicji przygotowywania się do poważnych przestępstw wymierzonych w dobro państwa (§ 89a niemieckiego kodeksu karnego). Te problemy, na które zwracaliśmy uwagę już w poprzednich raportach, stały się jeszcze poważniejsze w wyniku zmian wprowadzonych przez Ustawę o zwalczaniu prawicowego ekstremizmu i przestępstw z nienawiści. Na przykład groźba w rozumieniu paragrafu 241 niemieckiego kodeksu karnego może zostać wykonana „za pośrednictwem osoby trzeciej”, jeśli intencja sprawcy obejmuje przekazanie groźby adresatowi. Przestępstwa grożenia (§ 126 niemieckiego kodeksu karnego) i zastraszania (§ 241 niemieckiego kodeksu karnego) nie są zatem dobrze i precyzyjnie określone, zwłaszcza w przypadku publikowania treści w sieciach społecznościowych.

Aby uprościć proces składania skargi i ułatwić zadanie osobom zgłaszającym treści, które ich zdaniem mogą być nielegalne w świetle ustawy NetzDG, opracowaliśmy 7 kategorii treści branych w takich wypadkach pod uwagę. Kategorie te odpowiadają 22 rodzajom przestępstw i ułatwiają ich zrozumiałe pogrupowanie. Takie podejście pomaga nam również lepiej uchwycić przestępstwa o bardzo abstrakcyjnym charakterze i szerokim zakresie (szczególnie z punktu widzenia laika). Na przykład paragraf 140 niemieckiego kodeksu karnego karze nagradzanie lub aprobowanie tak zróżnicowanych czynów jak zdrada stanu, morderstwo czy inne poważne przestępstwa, np. zbrodnie wojenne, powodowanie (co najmniej) niebezpiecznych obrażeń ciała, niektóre przestępstwa zagrażające porządkowi publicznemu, pewne poważne przestępstwa seksualne itp. Nasze doświadczenie związane z procesami powiadamiania o materiałach budzących wątpliwości wskazuje, że użytkownicy cenią sobie takie życiowe i bezkompromisowe podejście do zgłaszania skarg na nielegalne treści. Z kolei rozszerzono katalog w paragrafie 126 niemieckiego kodeksu karnego, do którego odwołuje się paragraf 140 tego kodeksu. Ponadto z powodu alternatywy przyzwolenia w paragrafie 140 niemieckiego kodeksu karnego obecnie nie jest nawet konieczne, aby odnośny czyn został już popełniony lub aby przynajmniej podjęto próbę popełnienia go w sposób karalny. Technika odwoływania się do katalogów przestępstw i zagnieżdżonego badania przestępstw wymaga zbyt wiele od osób, które nie są prawnikami, właśnie z powodu przyszłościowego charakteru gróźb. Stosowane dotąd realistyczne i bezkompromisowe podejście prawdopodobnie będzie nadal pozwalało nam na uwzględnianie celów ustawy NetzDG w najlepszy możliwy sposób.

Te kategorie – wraz z odpowiadającymi im przestępstwami opisanymi w paragrafie 1 (3) ustawy NetzDG, które powinny być w pełni uwzględnione i zgłaszane – to:

Szerzenie nienawiści lub polityczny ekstremizm

  • § 130 StGB: nawoływanie do nienawiści
  • § 166 StGB: znieważenie religii oraz stowarzyszeń religijnych lub ideologicznych

Treści nielegalne lub dotyczące terroryzmu

  • § 86 StGB: rozpowszechnianie materiałów propagandowych nielegalnych organizacji
  • § 86a StGB: stosowanie symboli nielegalnych organizacji
  • § 89a niemieckiego kodeksu karnego: przygotowywanie poważnego przestępstwa wymierzonego w dobro państwa
  • § 91 StGB (niemieckiego kodeksu karnego): zachęcanie do popełnienia poważnego przestępstwa wymierzonego w dobro państwa
  • § 100a StGB: fałszerstwo noszące znamiona zdrady stanu
  • § 129 StGB: tworzenie organizacji przestępczych
  • § 129a StGB: tworzenie organizacji terrorystycznych
  • § 129b StGB: organizacje przestępcze i terrorystyczne za granicą; rozszerzona konfiskata i pozbawianie praw
  • § 140 StGB w połączeniu z § 138 (1) StGB: nagradzanie i aprobowanie niektórych przestępstw wymienionych w paragrafie 138 (1) StGB
  • § 269 StGB: fałszowanie danych poświadczających coś

Przemoc

  • § 131 StGB: rozpowszechnianie treści prezentujących przemoc

Działania szkodliwe lub niebezpieczne

  • § 111 StGB: publiczne podżeganie do przestępstwa
  • § 126 StGB: zakłócenie porządku publicznego poprzez grożenie popełnieniem wykroczenia
  • § 140 StGB w połączeniu z § 126 (1) StGB: nagradzanie i aprobowanie przestępstw wymienionych w paragrafie 126 (1) StGB
  • § 241 StGB: grożenie popełnieniem przestępstwa

Zniesławienie lub znieważenie

  • § 185 StGB: znieważenie
  • § 186 StGB: zniesławienie
  • § 187 StGB: intencjonalne zniesławienie

Prywatność

  • § 201a StGB: naruszenie prywatności poprzez robienie zdjęć

Treści erotyczne

  • § 184b StGB: rozpowszechnianie, nabywanie i posiadanie pornografii dziecięcej
  • § 140 w połączeniu z § od 176 do 178: nagradzanie i aprobowanie wykroczeń wymienionych w § od 176 do 178

Wieloletnie doświadczenie dotyczące zgłaszania treści na całym świecie podpowiada nam, że kategorie, które stosujemy, najlepiej oddają ducha ustawy NetzDG.

Więcej informacji

Sposoby informowania osoby przesyłającej zgłoszenie oraz twórcy treści

Gdy w ramach opisanych wyżej procedur otrzymamy skargę na podstawie ustawy NetzDG, wysyłamy do zgłaszającej ją osoby wiadomość e-mail z numerem referencyjnym sprawy, co stanowi potwierdzenie, że zgłoszenie do nas dotarło i że je sprawdzimy.

Po weryfikacji skargi dotyczącej niezgodności z ustawą NetzDG informujemy użytkownika o naszej decyzji i jej powodach w wiadomości e-mail. Ta wiadomość zawiera też informację, że zgłaszający może również zawiadomić organy ścigania o możliwości popełnienia przestępstwa. Więcej informacji na ten temat zawiera strona pomocy Federalnego Ministerstwa Sprawiedliwości i Ochrony Konsumentów w witrynie hilfe-info.de. Jeśli YouTube nie podejmie co do filmu działań wskazanych w skardze na podstawie ustawy NetzDG, powiadomienie będzie też zawierało link, za pomocą którego osoba zgłaszająca może przesłać prośbę o ponowne rozpatrzenie decyzji na podstawie ustawy NetzDG.

Jeśli w odpowiedzi na skargę na podstawie ustawy NetzDG zablokujemy treści z powodu ich powiązania z jednym z wymienionych w tej ustawie przestępstw, do osoby, która przesłała materiały, wyślemy e-maila z powiadomieniem o ich zablokowaniu. W przypadku zablokowania filmu taka wiadomość zawiera też link, za pomocą którego przesyłający może przesłać prośbę o ponowne rozpatrzenie decyzji w świetle ustawy NetzDG. Jeśli film został usunięty z powodu naruszenia wytycznych dla społeczności, osoba, która go przesłała, otrzyma powiadomienie z linkiem do prośby o ponowne rozpatrzenie tej decyzji pod kątem tych wytycznych.

Gdy film zostanie usunięty na podstawie wytycznych dla społeczności lub zablokowany ze względu na przepisy obowiązujące w danym kraju, zamiast filmu wyświetlimy publiczne powiadomienie informujące użytkowników, że film nie jest już dostępny.

Inne sposoby zgłaszania treści

Skargi prawne. Jak już wspomnieliśmy, stworzyliśmy dodatkowe narzędzia do zgłaszania naruszeń dla osób, które chcą zgłosić treści przypuszczalnie naruszające przepisy NetzDG (skargi na podstawie ustawy NetzDG): formularz internetowy dostępny dla wszystkich za pomocą linku Skargi na podstawie ustawy NetzDG w głównym menu YouTube, w Nocie prawnej lub – w przypadku zalogowanych użytkowników – otwierany przez kliknięcie pola wyboru NetzDG, które jest teraz uwzględnione w procedurze zgłaszania w Niemczech (opisanej wyżej). Te kanały do przesyłania zgłoszeń pozwalają użytkownikom wskazać elementy budzące zastrzeżenia oraz określić powód skargi prawnej. Informacje te są niezbędne do przeprowadzenia odpowiedniej oceny i podjęcia właściwych działań. Jeśli uzasadnienie będzie niejasne lub niewystarczające do lokalnego usunięcia treści, możemy poprosić o uzupełnienie informacji.

Udostępnienie intuicyjnej i łatwo dostępnej procedury zgłaszania tuż przy materiałach sprzyja zwiększeniu liczby kliknięć i skarg. Jednak zgłoszenia użytkowników nie zawsze są rzetelne. Wiele z nich jest nie na temat lub nie ma wystarczającego uzasadnienia, przez co nie jesteśmy w stanie podjąć odpowiednich działań. Inni użytkownicy przesyłają zgłoszenia bez podawania, dlaczego ich zdaniem dane treści są niezgodne z prawem. Problem dotyczy szczególnie tych materiałów, gdzie niezgodność nie jest oczywista.

Oprócz mechanizmów umożliwiających składanie skarg na podstawie ustawy NetzDG od dawna udostępniamy użytkownikom YouTube formularz internetowy do zgłaszania kwestii prawnych (np. skarg dotyczących ochrony dóbr osobistych, naruszenia praw autorskich, znaków towarowych itd.). Proces usuwania treści ze względów prawnych nie został więc wdrożony po wprowadzeniu ustawy NetzDG – po prostu ściślej łączy nasze dotychczasowe mechanizmy zgłaszania przypadków potencjalnego naruszenia wytycznych dla społeczności i przepisów prawa.

Zgłoszenia od użytkowników. Stosujemy system, który pozwala zalogowanym użytkownikom zgłaszać treści potencjalnie naruszające nasze wytyczne dla społeczności. Przycisk tej funkcji jest dostępny pod każdym filmem i przy wszystkich komentarzach. Wskazując powód zgłoszenia treści, użytkownik może wybrać jedną z wielu kategorii. Jeśli nie zaznaczy pola wyboru NetzDG, zgłoszenie będzie oceniane wyłącznie pod kątem zgodności z wytycznymi dla społeczności. To dobrowolny system regulowania wewnętrznego, wprowadzony niezależnie od jakichkolwiek obowiązków prawnych. Opracowaliśmy również program dla zaufanych moderatorów, aby zapewnić organizacjom, które są szczególnie skuteczne w informowaniu nas o treściach naruszających nasze wytyczne dla społeczności, dostęp do niezawodnych procesów i skutecznych narzędzi do zgłaszania wielu elementów treści. Zgłoszenia otrzymane od zaufanych moderatorów oceniamy tylko pod kątem zgodności z wytycznymi dla społeczności. Zaufani moderatorzy to organizacje pozarządowe i instytucje państwowe, które charakteryzują się wysoką dokładnością i wiedzą ekspercką, dzięki czemu ich zgłoszenia są dla nas niezwykle cenne. Szczegółowe informacje o programie dla zaufanych moderatorów zawiera raport dotyczący egzekwowania wytycznych dla społeczności YouTube.

Automatyczne dopasowywanie maszynowe. Mechanizmy egzekwowania zasad w YouTube zaczynają działać w chwili przesyłania filmu przez użytkownika. YouTube używa technologii, która pozwala zapobiec ponownemu przesłaniu treści znanych jako naruszające zasady, między innymi na podstawie ciągu haszy („odcisków cyfrowych”). Odciski cyfrowe to unikalne znaki haszujące obrazy i filmy, dzięki którym zapobiegamy ponownemu przesyłaniu dokładnych odpowiedników materiałów usuniętych ze względu na naruszenie wytycznych dla społeczności. W przypadku niektórych rodzajów treści, np. materiałów wizualnych związanych z wykorzystywaniem seksualnym dzieci oraz filmów rejestrowanych na potrzeby rekrutacji do organizacji terrorystycznych, YouTube używa również udostępnionej dla całej branży bazy danych haszy, aby zwiększyć liczbę materiałów wyłapywanych maszynowo przy przesyłaniu.

Automatyczne zgłaszanie maszynowe. W czerwcu 2017 roku zaczęliśmy wdrażać technologię systemów uczących się na potrzeby zgłaszania do weryfikacji manualnej treści związanych z brutalnym ekstremizmem. YouTube korzysta z korpusu filmów sprawdzonych i usuniętych ze względu na brutalny ekstremizm jako materiału wejściowego dla systemów uczących się, aby umożliwić automatyczne zgłaszanie nowych treści, które mogą również naruszać wytyczne dla społeczności. Dzięki oparciu technologii systemów uczących się na poprzednich decyzjach podejmowanych przez człowieka systemy egzekwowania zasad mogą dostosowywać się i stawać coraz bardziej inteligentne. Pozytywne wyniki pozwoliły nam wprowadzić technologię systemów uczących się również w innych wymagających obszarach, np. bezpieczeństwa dzieci czy wypowiedzi szerzących nienawiść. Okazuje się jednak, że najskuteczniejsze są w przypadku wyraźnie określonych materiałów docelowych, naruszających zasady niezależnie od kontekstu. Automatyzacja nie jest w stanie zastąpić ludzkiej oceny i wrażliwości na niuanse. Więcej informacji zawiera nasz raport dotyczący egzekwowania wytycznych dla społeczności YouTube.

Proces oceny

Zgłaszanie niezgodności z wytycznymi dla społeczności. Obowiązujące na całym świecie wytyczne dla społeczności YouTube to jasne, ogólne reguły, z którymi można zapoznać się tutaj. Wytyczne ewoluują w miarę rozwoju YouTube i zmian zachowań użytkowników. Użytkownicy wyrażają zgodę na przestrzeganie wytycznych przed otwarciem jakiegokolwiek kanału w YouTube.

Zgłoszone treści sprawdzamy (jak opisaliśmy to powyżej) pod kątem wszystkich wytycznych dla społeczności, a wytyczne te zabraniają publikowania m.in. nagości oraz treści o charakterze seksualnym, treści szkodliwych i niebezpiecznych, treści szerzących nienawiść, treści drastycznych i przedstawiających przemoc, materiałów mających na celu nękanie i poniżanie w internecie, gróźb oraz treści stanowiących wykorzystywanie i krzywdzenie dzieci.

YouTube zapewnia spójne egzekwowanie wytycznych dla społeczności dzięki bardziej szczegółowemu i uaktualnianemu na bieżąco zbiorowi wskazówek dotyczących interpretacji. Wytyczne dla społeczności zabraniają np. publikowania treści, które promują terroryzm. Jeśli grupa terrorystyczna utworzy nowy oddział, możemy zaktualizować wewnętrzne wytyczne dotyczące egzekwowania zasad o informacje na temat tej konkretnej grupy, aby weryfikatorzy mieli możliwość usuwania treści ją promujących. YouTube nie zawsze ujawnia tego rodzaju aktualizacje – gdybyśmy to robili, trudniej byłoby nam wykryć użytkowników o złych zamiarach.

Zespoły weryfikatorów mają możliwość sprawdzenia kontekstu zgłaszanych treści, w tym opisu filmu, innych treści przesłanych do danego kanału oraz metadanych (tytułów, tagów i napisów). Te wskazówki kontekstowe są ważne dla oceny intencji przesłania danych treści. Poza tym nasze narzędzie do weryfikacji rejestruje sygnaturę czasową zgłoszenia filmu, a w formularzach internetowych również jest pole na tę informację. Dzięki temu weryfikatorzy mogą skupić się na potencjalnie problematycznych momentach filmu.

W naszych wytycznych dla społeczności istnieją wyjątki dotyczące materiałów edukacyjnych, dokumentalnych, naukowych lub artystycznych (EDSA). Filmy i komentarze z tych kategorii są niezbędne dla zrozumienia świata i rejestrowania zdarzeń. Takie filmy dokumentują m.in. wojny czy rewolucje lub są wyrazem ekspresji artystycznej, która może prezentować nagość. Z tego powodu w wytycznych YouTube dotyczących egzekwowania zasad położyliśmy nacisk na ułatwienie weryfikatorom zrozumienia wspomnianych wyjątków podczas sprawdzania zgłoszonych filmów. Jednak nawet przy dobrze opracowanych wytycznych określenie, które filmy i komentarze stanowią wyjątek, może być trudnym zadaniem.

Zasadniczo nasze zespoły weryfikatorów usuwają globalnie te treści, które naruszają nasze wytyczne dla społeczności. Zespoły mogą także podjąć te alternatywne działania:

  • Ograniczenia wiekowe. Niektóre filmy nie naruszają naszych zasad, ale mogą być nieodpowiednie dla pewnych grup odbiorców. Jeśli takie treści zostaną zgłoszone, nasz zespół może nałożyć na nie ograniczenie wiekowe. Filmy z takim ograniczeniem nie są widoczne dla użytkowników, którzy są niezalogowani, nie mają ukończonych 18 lat lub mają włączony trybu ograniczonego dostępu. Jeśli podejmiemy decyzję o nałożeniu na film ograniczenia wiekowego, powiadamiamy o tym osobę, która go przesłała. Przekazujemy jej też informację o możliwości odwołania się od naszej decyzji. Więcej informacji
  • Ograniczona funkcjonalność. Jeśli zespoły weryfikatorów stwierdzą, że film jest niezgodny z naszymi zasadami, niektóre funkcje mogą zostać wyłączone. Takie filmy będą nadal dostępne w YouTube, ale będzie poprzedzać je ostrzeżenie, a niektóre funkcje – w tym udostępnianie i dodawanie komentarzy, proponowane filmy i polubienia – zostaną wyłączone. Tego rodzaju filmy nie mogą również generować przychodów. Gdy podejmiemy decyzję, powiadomimy przesyłającego e-mailem, że na jego film nałożyliśmy ograniczenie niektórych funkcji. Przesyłający może odwołać się od tej decyzji. Więcej informacji
  • Zablokowany jako prywatny. Jeśli stwierdzimy, że film narusza nasze zasady dotyczące wprowadzających w błąd metadanych, może on zostać zablokowany jako prywatny. Nie będzie wtedy widoczny publicznie. Film będzie niedostępny nawet dla użytkowników, którzy mają do niego link. Gdy podejmiemy decyzję, powiadomimy przesyłającego e-mailem, że jego film nie jest już publiczny. Przesyłający może odwołać się od tej decyzji. Więcej informacji

W razie powtarzających się nadużyć lub bardziej poważnych naruszeń możemy ukarać użytkownika, wyłączając niektóre funkcje lub całe jego konto. W większości przypadków pierwsze naruszenie wytycznych dla społeczności skutkuje wysłaniem ostrzeżenia. Stosujemy ogólną zasadę 3 ostrzeżeń – 3 naruszenia prowadzą do wyłączenia konta. Jednak w poważnych przypadkach, np. związanych z terroryzmem, możemy wyłączyć konto już za pierwszym razem.

Skargi prawne. Po otrzymaniu wniosku prawnego zespoły weryfikatorów przeprowadzają ocenę prawną, opierając się na informacjach z wniosku, w tym zgłoszonej wątpliwości. Ponadto weryfikatorzy widzą kontekst zgłaszanych treści (np. metadane, tytuł itp.). Jeśli we wniosku brakuje ważnych informacji, np. danych osoby w zgłoszeniu dotyczącym zniesławienia, zespół kontaktuje się z osobą zgłaszającą, prosząc o ich uzupełnienie, a następnie ocenia przypadek pod kątem prawnym. Jeśli stwierdzimy, że treści są niezgodne z prawem, blokujemy je na poziomie lokalnym.

Skargi na podstawie ustawy NetzDG. W ramach procesu weryfikacji, gdy otrzymujemy skargę na podstawie ustawy NetzDG, nasz specjalistyczny zespół weryfikatorów zajmujący się takimi przypadkami (patrz sekcja Zespoły weryfikatorów), widząc cały kontekst, ocenia treści także pod kątem przestępstw wymienionych w ustawie NetzDG. Jeśli treści wyraźnie naruszają wytyczne dla społeczności, zespół weryfikatorów usuwa je globalnie. Wobec treści zgłoszonych na podstawie ustawy NetzDG możemy podjąć 2 decyzje. Możemy globalnie usunąć film, jeśli narusza on tylko nasze wytyczne lub dodatkowo jest niezgodny z niemieckim prawem. Jeśli film nie narusza naszych wytycznych, ale uznamy go za niezgodny z paragrafem 1 (3) ustawy NetzDG lub innymi przepisami obowiązującymi w danym kraju, blokujemy go lokalnie.

Ocena skargi często nie jest łatwa. Niektóre przestępstwa bywają trudne do skategoryzowania nawet dla prawników – np. fałszowanie danych poświadczających coś (§ 269 StGB). Cała kategoria zniesławień i znieważeń stanowi obszar, w którym przez dziesięciolecia ustaliła się pewna linia orzecznictwa, w szczególności od czasu wejścia w życie niemieckiej konstytucji. W przypadku zniesławienia i znieważania oczywista niezgodność z prawem zdarza się rzadko. Sądy potrzebują często lat na stwierdzenie, czy dane treści są legalne, a i tak dochodzą przy tym do różnych wniosków. Federalny Trybunał Konstytucyjny wiele razy wydawał odmienną opinię od Federalnego Sądu Najwyższego, wykazując, że zwykle niezbędne są złożone procesy wyważania opinii, a każdy przypadek zależy od indywidualnych czynników. W odróżnieniu od postępowania sądowego ocena prawna w sieciach społecznościowych nie opiera się zawsze na komplecie niezbędnych informacji. Poza tym nie ma postępowania, które wymagałoby reguł dowodowych. W takich sytuacjach bardzo trudno rozstrzygnąć o niezgodności z prawem wskazanych treści – powołując się na konkretne cechy przestępstw – i zwykle decyzję taką powinien podejmować właściwy sąd.

Potwierdzają to obserwacje. Wiele skarg na podstawie ustawy NetzDG dotyczących zniesławienia lub znieważenia nie jest wysyłanych przez osoby dotknięte, ale przez podmioty trzecie, które zakładają, że osoby te mogły poczuć się zniesławione. Informacja, czy odpowiada to prawdzie, oraz czy osoba zniesławiona rzeczywiście złożyła skargę w odpowiedniej instytucji – ponieważ ściganie tego rodzaju przestępstw wymaga złożenia skargi we własnym imieniu („Antragsdelikt”) – nie jest znana w sieci społecznościowej, ponieważ brakuje umocowania do weryfikacji tożsamości osoby zgłaszającej.

Członkowie zespołu ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG pracują na 2 zmiany, przez 7 dni w tygodniu, 365 dni w roku. Dzięki temu możliwe jest dotrzymanie określonych w ustawie terminów globalnego usunięcia lub lokalnego zablokowania nieodpowiednich treści. Jeśli zgłoszenie jest w oczywisty sposób nieuzasadnione, niezwłocznie informujemy o tym osobę, która je przysłała, przestrzegając stosownych wymogów prawnych (patrz sekcja „Sposoby informowania osoby przesyłającej zgłoszenie oraz twórcy treści”). Jeśli treści nie naruszają w sposób oczywisty wytycznych dla społeczności YouTube ani odpowiednich przepisów prawa karnego, są bardziej złożone lub nie odnoszą się wyraźnie do Niemiec, weryfikator sprawdzający zgłoszenia pod kątem ustawy NetzDG przekazuje skargę wyżej. Zgłoszenie trafia do bardziej doświadczonych weryfikatorów, którzy je sprawdzają i podejmują odpowiednie działania. Złożone zgłoszenia trafiają do zespołu prawnego YouTube, skąd mogą zostać przekazane do działu prawnego Google Germany GmbH, jeśli okażą się wyjątkowo trudne lub niejednoznaczne. Dział prawny ma wreszcie możliwość skonsultować szczególnie skomplikowane kwestie z zewnętrzną kancelarią prawną specjalizującą się w prawie karnym. Cały proces zajmuje zwykle do 7 dni.

W trosce o to, żeby zespół ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG działał sprawnie i żeby poprawnie i spójnie stosował wytyczne dla społeczności YouTube oraz przepisy ustawy NetzDG, wprowadziliśmy surowy proces oceny jakości. W okresie raportowania sprawdzaliśmy średnio około 30% zweryfikowanych treści z poprzedniego tygodnia. Liczba ocenianych przypadków może być różna w poszczególnych tygodniach w zależności od liczby przychodzących skarg. W ramach tego procesu zespół ds. oceny jakości bada decyzje poszczególnych weryfikatorów treści, przekazuje im indywidualne opinie i przeprowadza ogólną analizę wyników weryfikacji jakości. Wybrana próbka stanowi podstawę do cotygodniowego przeglądu danych pod kątem jakości. Weryfikatorzy jakości stanowią osobną grupę w zespole ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG. To bardziej doświadczeni członkowie zespołu, którzy wcześniej zajmowali się weryfikacją treści. Dobrze znają przepisy prawa, do których odnosi się ustawa NetzDG, oraz wytyczne dla społeczności YouTube. Podczas cotygodniowych spotkań zespołu prawnego YouTube i zespołu ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG omawiane są nie tylko najnowsze wyniki oceny jakości, ale również szczególnie interesujące, trudne i złożone sprawy. Ponadto toczone są dyskusje na temat widocznych trendów, tematów budzących zainteresowanie oraz orzecznictwa, co pozwala uzyskać pewność, że wszyscy członkowie zespołu ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG stosują podobne podejście do tych spraw. Gdy jest to konieczne, precyzujemy zasady usuwania, dostosowując je np. do zmian w wytycznych dla społeczności YouTube czy w orzecznictwie. W takich sytuacjach wszyscy członkowie zespołu otrzymują odpowiednie wskazówki lub materiały szkoleniowe.

Odwołania

Odwołania od decyzji na podstawie ustawy NetzDG: jeśli wykryjemy film, który został zgłoszony w ramach skargi na podstawie ustawy NetzDG jako niezgodny z prawem z powodu powiązania z jednym z przestępstw wymienionych w tej ustawie, osoba, która go przesłała, otrzyma podobną wiadomość z linkiem do formularza umożliwiającego odwołanie się od naszej decyzji. To samo dotyczy osoby zgłaszającej treści, w przypadku gdy skarga zostanie odrzucona, ponieważ nie uznamy materiałów za naruszające ustawę NetzDG.

W przypadku takiego odwołania na podstawie ustawy NetzDG członek zespołu ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG, który nie podjął pierwotnej decyzji, przeprowadzi ponowną weryfikację. W ramach tej weryfikacji pierwotna decyzja dotycząca naruszenia przepisów wymienionych w ustawie NetzDG zostanie podtrzymana lub zmieniona. Rezultat zostanie przekazany w e-mailu.

Odwołania w sprawie treści naruszających wytyczne dla społeczności: gdy YouTube podejmie działania dotyczące filmu, który narusza wytyczne dla społeczności, osoba, która przesłała film, jest informowana o tych działaniach i powodach, dla których zostały one podjęte. Przekazujemy tej osobie opis sytuacji, link do dodatkowych informacji o usunięciu treści oraz link umożliwiający rozpoczęcie procesu odwoławczego, w ramach którego możemy ponownie ocenić treści pod kątem zgodności z naszymi wytycznymi dla społeczności. Od dawna pozwalamy użytkownikom odwoływać się od decyzji, jeśli stwierdzą, że dany materiał nie narusza naszych wytycznych dla społeczności. Cały proces jest szczegółowo wyjaśniony tutaj. Odwołania od decyzji o naruszeniu wytycznych dla społeczności i przypadki przywrócenia treści są uwzględnione w raporcie dotyczącym egzekwowania wytycznych dla społeczności YouTube. Szczegółowe dane znajdziesz na tej stronie internetowej.

Zespoły weryfikatorów

Chociaż technologia jest bardzo pomocna w wykrywaniu niektórych rodzajów kontrowersyjnych treści – np. znajdowaniu obiektów oraz wzorców szybko i na masową skalę w grafikach, filmach oraz materiałach dźwiękowych – do oceny kontekstu najlepszy jest człowiek. Algorytmy nie zawsze potrafią np. określić różnicę między propagandą terrorystyczną a materiałem na temat praw człowieka lub między wypowiedzią szerzącą nienawiść a prowokacyjną komedią. Ostateczna ocena zawsze wymaga udziału ludzi.

Sprawdzaniem zgłoszeń dotyczących wytycznych dla społeczności oraz innych powiadomień zajmują się nasze systemy technologiczne wspierane przez pracowników Google i wynajętych dostawców usług. Mamy rozbudowaną metodykę weryfikacji jakości, dzięki której nasi pracownicy na całym świecie podejmują właściwe decyzje w sprawie zgłaszanych treści i otrzymują uwagi na temat swojej pracy. Zespoły składają się z tysięcy osób, które biegle posługują się wieloma językami i rzetelnie oceniają zgłoszone treści przez 24 godziny na dobę, 7 dni w tygodniu, 365 dni w roku we wszystkich strefach czasowych na całym świecie. Wiele z tych osób mówi w języku niemieckim.

Niektórzy członkowie zespołu, którzy zajmują się skargami prawnymi, są niemieckojęzycznymi dyplomowanymi prawnikami. Osoby te, wyspecjalizowane w lokalnych przepisach, konsultują się z lokalnymi prawnikami Google. Google dysponuje dużymi zespołami prawników w wielu krajach europejskich. Osoby te w razie konieczności analizują zgłoszone treści, ale zespoły mogą także zasięgać zewnętrznej porady prawnej.

Zespół ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG. Na potrzeby weryfikacji zgłoszeń związanych z ustawą NetzDG powołaliśmy w Niemczech specjalny zewnętrzny zespół (zespół ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG). Liczba weryfikatorów zmienia się w zależności od liczby zgłoszeń. W okresie raportowania nad skargami dotyczącymi niezgodności z ustawą NetzDG pracowało 77 weryfikatorów. Spośród nich 61 zajmowało się weryfikacją treści (do tej grupy należeli również weryfikatorzy treści o dużym doświadczeniu) pod nadzorem 5 liderów. Zespół uzupełniało 6 weryfikatorów jakości i 2 instruktorów.

Aby zapewnić różnorodność kulturową, wybraliśmy weryfikatorów o odmiennych kwalifikacjach zawodowych, posługujących się różnymi językami oraz takich, którzy w okresie raportowania mieli od 21 do 55 lat. Wszyscy członkowie zespołu ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG biegle posługują się językiem niemieckim, a dla większości jest to język ojczysty. Wszyscy członkowie zespołu ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG posługują się również językiem angielskim. Od 1 do 30 członków zespołu posługuje się co najmniej 1 z następujących języków: bułgarskim, hiszpańskim, japońskim, kurdyjskim, rosyjskim, serbskim, tureckim, ukraińskim i włoskim. Stworzenie zespołu, którego członkowie posługują się wieloma językami, bywa przydatne przy ocenianiu potencjalnych odniesień do Niemiec w innych językach. W okresie raportowania 1/4 (25%) członków zespołu ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG miała stopień licencjata, magistra lub zdała egzamin państwowy z dziedzin takich jak politologia, translatoryka, nauki o mediach, administracja w biznesie, nauki o zdrowiu, inżynieria przemysłowa, archeologia czy pedagogika. Jedna osoba z zespołu ma tytuł doktora. Około 40% członków zespołu miało za sobą praktykę w sprzedaży detalicznej, gastronomii, przemyśle, turystyce i zarządzaniu wydawnictwem; praktykę biurową, murarską lub praktykę w dziedzinach takich jak: media i technologie informacyjne, zarządzanie logistyką czy technologia żywności.

Zespół ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG co najmniej raz na pół roku przechodzi szkolenia na temat oceniania wykroczeń, do których odnosi się ustawa NetzDG, jak również wytycznych dla społeczności YouTube.

Każdy członek zespołu ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG przechodzi wstępne szkolenie dotyczące wszystkich wytycznych dla społeczności YouTube, obowiązujących procedur i naszych systemów technicznych, jak również szkolenie prawne na temat przestępstw, do których odnosi się ustawa NetzDG. Co do zasady oprócz szkolenia wstępnego raz na 6 miesięcy przeprowadzamy obowiązkowe szkolenia prawne odświeżające wiedzę z zakresu ustawy NetzDG. Szkolenia te są prowadzone w języku niemieckim przez zespół składający się zwykle z prawników z zewnętrznych kancelarii oraz członków zespołów prawnych YouTube i Google Germany GmbH. Ze względu na podział zespołu na grupy pracujące w systemie zmianowym organizujemy kilka sesji szkoleniowych, aby wszyscy członkowie zespołu, w tym kierownicy, weryfikatorzy jakości oraz instruktorzy, mogli wziąć w nich udział. Szkolenia stanowią okazję do omówienia pytań i zebranych wcześniej przypadków budzących wątpliwości. Ponadto w miarę potrzeb na bieżąco organizowane są szkolenia prawne prowadzone przez zespół prawny YouTube oraz przedstawicieli działu prawnego Google Germany GmbH. Stosujemy model „szkolenia instruktorów”, co oznacza, że przekazujemy wiedzę wyznaczonym osobom z zespołu ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG, a te osoby następnie szkolą pozostałych. Zarówno szkolenia odświeżające wiedzę, jak i organizowane na bieżąco szkolenia prawne są poświęcone aktualnym mechanizmom, trendom, nowej linii orzecznictwa oraz rodzajom wniosków, które okazały się trudne do oceny w poprzednim półroczu. Stosownie do potrzeb organizujemy szkolenia prawne na tematy takie jak zniesławienia o charakterze religijnym, treści przedstawiające przemoc czy znieważanie osób publicznych i polityków.

Zespół ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG korzysta też często ze szkoleń odświeżających wiedzę na temat wytycznych dla społeczności. Szkolenia te dotyczą nowych mechanizmów oraz trendów, z którymi spotyka się zespół, np. w związku z szerzeniem nienawiści czy bezpieczeństwem dzieci. Ponadto organizowane są specjalistyczne szkolenia z konkretnych zagadnień, np. dotyczące broni, szkodliwych i niebezpiecznych psikusów i wyzwań, bezpieczeństwa w internecie oraz treści wprowadzających w błąd. Szkolenia z wytycznych dla społeczności są prowadzone przez menedżerów zajmujących się egzekwowaniem zasad oraz członków zespołu prawnego YouTube. Ponadto zespół ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG otrzymuje co tydzień oraz w miarę potrzeb powiadomienia na temat zmian w wytycznych dla społeczności, które mają dla niego znaczenie.

Członkowie zespołu ds. weryfikacji treści pod kątem zgodności z ustawą NetzDG mają do dyspozycji rozbudowane programy dbania o komfort psychiczny oraz wsparcie psychologiczne, w tym szkolenia i sesje terapeutyczne przeprowadzane regularnie oraz na żądanie w języku niemieckim przez specjalny zespół składający się z niemieckojęzycznych psychologów, terapeutów i instruktorów. Zespół ma całodobowy dostęp do telefonicznych porad terapeutycznych. Oferujemy też dostęp do obiektów rekreacyjnych, w tym przestrzeni relaksacyjnych oraz specjalnych miejsc na indywidualne sesje terapeutyczne. Takie programy dbania o komfort psychiczny zapewniamy wszystkim zespołom weryfikatorów w Google i YouTube. Ponadto członkowie zespołu mogą korzystać z zajęć fitness i siłowni na preferencyjnych warunkach.

Członkostwo w stowarzyszeniach branżowych

Usługa YouTube jest reprezentowana jako element działalności Google w następujących stowarzyszeniach mających związek z ustawą NetzDG:

Stowarzyszenia FSM i Eco udostępniają infolinie, przez które klienci mogą składać zgłoszenia. Zgłoszenia te są następnie przekazywane do naszych zespołów ds. weryfikacji do oceny. W każdym przypadku wysyłamy szczegółowy komentarz do naszych decyzji do zgłaszającej infolinii.

Wierzymy we współpracę. Łączymy się w staraniach z grupami obywatelskimi działającymi na rzecz wyeliminowania dyskryminacji oraz wypowiedzi szerzących nienawiść, a także z instytucjami państwowymi, aby poznawać lokalne uwarunkowania i opracowywać rozwiązania. Regularnie poddajemy nasze praktyki egzekwowania zasad ocenie partnerów i ekspertów. Zapraszamy także organizacje pozarządowe do udziału w lokalnych i ogólnokrajowych warsztatach, na których informujemy o zmianach w naszych zasadach i usługach, szkolimy z używania usług Google, ale też zabezpieczeń, a także omawiamy najnowsze wyzwania i podstawowe problemy.

Dalsze środki ochrony i pomocy dla ofiar nielegalnych treści

Jest wiele inicjatyw i projektów, w ramach których Google i YouTube walczą z szerzeniem nienawiści online i wspierają ofiary treści niezgodnych z prawem.

Program Impact Challenge Bezpieczeństwo w sieci (projekt Google.org) to fundusz o wartości 10 mln euro wspierający organizacje w całej Europie, które zajmują się wyzwaniami związanymi z nienawiścią, ekstremizmem i bezpieczeństwem dzieci, zarówno w internecie, jak i poza nim. Przez finansowanie nowych i już trwających projektów społecznościowych w całej Europie chcemy wspierać inicjatywy mające na celu zwalczanie nienawiści i ekstremizmu. Chcemy też pomagać młodym ludziom w świadomym udziale w społeczności internetowej. Wśród zwycięzców znalazły się niemieckie organizacje HateAid i Gefangene helfen Jugendlichen e.V. Dzięki środkom z grantu HateAid chce oferować realne wsparcie ofiarom wypowiedzi szerzących nienawiść i przestępstw z nienawiści w internecie, zwiększać odporność użytkowników, którzy doświadczają tego typu zachowań, i umożliwiać im ponowny powrót do sieci, aby nie czuli się tak, jakby ktoś ich uciszył. W celu zmniejszenia wskaźników recydywy wśród młodzieży niemieckiej zespół Gefangene helfen Jugendlichen zapewnia profesjonalne wsparcie i realizuje programy, w ramach których organizuje wizyty w więzieniach i dyskusje z byłymi skazanymi, aby młodzież poznała prawdziwe konsekwencje przestępstw.

Od wielu lat Google angażuje się również w promowanie kompetencji w zakresie korzystania z mediów, wzmacnianie pozycji młodych ludzi i użytkowników w każdym wieku oraz wspieranie nauczycieli za pomocą zasobów do wykorzystania podczas zajęć. Nieustannie staramy się podnosić świadomość w zakresie mechanizmów zgłaszania treści i edukować użytkowników na temat narzędzi do zachowania cyfrowej równowagi oraz zasad i ustawień Google oraz YouTube.

Od 2013 r. Google zapewnia środki i wsparcie stowarzyszeniu działającemu na rzecz dobrowolnego regulowania wewnętrznego mediów cyfrowych w Niemczech (FSM e. V.), aby umożliwić tworzenie i dalszy rozwój kompendium zasobów dydaktycznych „Medien in die Schule”. Kompendium zawiera konspekty lekcji na temat kształtowania opinii w internecie, przeciwdziałania szerzeniu nienawiści, analizowania informacji, a także na temat porównania rzeczywistości i fikcji w mediach.

W 2009 r. zespół YouTube we współpracy z lokalnymi partnerami i pod patronatem kanclerz Merkel zapoczątkował inicjatywę „361 Grad Respekt”, która była realizowana wielokrotnie w latach 2009–2014 (od 2010 roku pod patronatem pełniącego obowiązki Ministra ds. Rodziny) i została wznowiona pod nazwą #NichtEgal w 2016 r. w 2 edycjach (2016 i 2018). Inicjatywy te miały na celu promowanie zachowań opartych na szacunku zarówno w internecie, jak i poza nim, a także zachęcanie młodych ludzi do wyrażania sprzeciwu wobec nienawiści i dyskryminacji przez konkursy wideo i warsztaty szkolne.

Dzięki środkom z grantu z filantropijnego ramienia Google – Google.org – stowarzyszenie działające na rzecz dobrowolnego regulowania wewnętrznego dostawców usług w zakresie mediów cyfrowych w Niemczech (FSM e. V.) w maju 2020 r. zainicjowało projekt „Weitklick”. Celem tego projektu jest opracowanie platformy do nauczania hybrydowego, służącej do edukowania nauczycieli na temat zjawisk dezinformacji i sposobów rozwiązywania związanych z nimi problemów podczas zajęć. Projekt rozwija też współpracę nauczycieli, szkół i dziennikarzy.

Stale utrzymujemy globalną sieć ponad 300 pracowników dydaktyczno-naukowych, partnerskich instytucji państwowych i organizacji pozarządowych na całym świecie wzbogacających cenną wiedzą nasze systemy egzekwowania zasad, np. w Niemczech jest to Amadeu Antonio Foundation, Nummer gegen Kummer oraz Violence Prevention Network.

Zautomatyzowane mechanizmy

W przypadku YouTube polegamy na modelu „ludzie + automatyka”, aby egzekwować przestrzeganie wytycznych dla społeczności, umożliwiać zgłaszanie nieodpowiednich treści i sprawdzać je w odniesieniu do tych wytycznych. Zgłoszenia, które mogą wynikać z potencjalnego naruszenia wytycznych dla społeczności, mogą pochodzić z systemów automatycznego zgłaszania treści w YouTube, a także od członków programu dla zaufanych moderatorów (organizacji pozarządowych, instytucji państwowych i osób fizycznych) lub od osób z szerszej społeczności YouTube.

Do walki z treściami naruszającymi zasady w YouTube zawsze korzystaliśmy z pomocy weryfikatorów i technologii. W 2017 r. zaczęliśmy stosować bardziej zaawansowaną technologię systemów uczących się, aby oznaczać treści przeznaczone do sprawdzenia przez zespoły weryfikatorów. To połączenie inteligentnej technologii wykrywającej i przeszkolonych weryfikatorów umożliwiło YouTube konsekwentne egzekwowanie zasad z coraz większą szybkością.

Dzięki automatyce możliwe jest zgłaszanie treści do sprawdzenia na dużą skalę, co pomaga nam usuwać miliony filmów naruszających zasady, zanim zostaną one wyświetlone. W YouTube postawiliśmy na systemy uczące się, które przyspieszają usuwanie treści. Opłaca się to w obszarach o wysokim ryzyku, ale małej liczebności przypadków (dotyczy to np. brutalnego ekstremizmu) oraz w obszarach o dużej liczebności przypadków (dotyczy to np. spamu).

Aktualne dane o usuwaniu treści znajdziesz w raporcie dotyczącym egzekwowania wytycznych dla społeczności YouTube (tutaj).

Wdrożenie systemów uczących się w rzeczywistości oznacza, że treści sprawdza więcej, a nie mniej osób. Podczas określania, czy treści naruszają zasady, nasze systemy opierają się na weryfikacji manualnej.

Gdy wykryjemy film, który narusza nasze wytyczne, usuwamy go i nakładamy na kanał ostrzeżenie. Usuwamy całe kanały, które są przeznaczone do publikowania treści zabronionych przez wytyczne dla społeczności lub dopuszczą się 1 poważnego naruszenia, na przykład opublikują materiały ukazujące wykorzystywanie seksualne dzieci. Zdecydowana większość prób nadużyć pochodzi od nieuczciwych podmiotów próbujących przesłać spam lub treści dla dorosłych.

Aby dowiedzieć się więcej o tym, jak radzimy sobie z tego typu treściami, oraz aby poznać wpływ działań, w które się angażujemy, kliknij tutaj.

Opracowaliśmy też narzędzia, które umożliwiają twórcom moderowanie komentarzy do filmów. Twórcy mogą na przykład wstrzymywać publikację wszystkich komentarzy do momentu ich sprawdzenia albo automatycznie wstrzymywać komentarze z linkami lub potencjalnie obraźliwymi treściami. Przy moderowaniu komentarzy na swoim kanale z tych narzędzi korzysta już ponad milion twórców.

Wyjaśnienie postanowień Warunków korzystania z usługi dotyczących rozpowszechniania treści w YouTube

Warunki korzystania z YouTube są jasno uporządkowane i zawierają m.in. sekcję „Treści i zachowanie użytkownika”. W przystępny sposób wyjaśniamy w niej, jakie treści i jakie zachowania są zabronione na platformie. Warunki korzystania z usługi wyraźnie określają, że korzystanie z usługi regulują Warunki korzystania z usługi, wytyczne dla społeczności YouTube, zasady YouTube, zasady dotyczące bezpieczeństwa i praw autorskich (łącznie zwane „Umową”). Zgodnie z Warunkami korzystania z usługi nie można publikować żadnych treści, które naruszają Umowę lub przepisy prawa. Zawarte w Umowie wytyczne dla społeczności są sformułowane w sposób jasny i zrozumiały. Obejmują 5 obszarów tematycznych: spam i nieuczciwe praktyki, treści o charakterze kontrowersyjnym, treści niebezpieczne lub nawołujące do przemocy, towary objęte regulacjami i informacje wprowadzające w błąd. Każdy z tych obszarów jest podzielony na mniejsze sekcje zawierające odpowiednie zasady. Każda z tych zasad zaczyna się od ogólnego opisu treści, które są zabronione w YouTube, oraz powodów, dla których są zabronione. Pod nagłówkiem „Co ta zasada oznacza dla Ciebie” znajduje się wyjaśnienie, jak stosować daną zasadę na naszej platformie. Po tym nagłówku następuje zwykle sekcja „Przykłady”, która zawiera konkretne przykłady treści niedozwolonych w YouTube w ramach danej zasady. W sekcji „Co się stanie, gdy treść narusza te zasady” informujemy użytkowników o możliwych konsekwencjach naruszenia zasad. Te postanowienia w przyjazny dla użytkownika sposób (pod względem układu i języka) określają dopuszczalność rozpowszechniania treści w YouTube. Zawierają szczegółowe opisy niedozwolonych zachowań wraz z obszernymi przykładami. Postanowienia są łatwe do znalezienia oraz sformułowane w sposób jasny i wyczerpujący, dzięki czemu spełniają wymagania paragrafu 307 (1), 308 i 309 niemieckiego kodeksu cywilnego. Postanowienia w tych wytycznych są oparte na obiektywnych i możliwych do zweryfikowania kryteriach, dzięki czemu spełniają standardy obowiązującego orzecznictwa. Ponadto użytkownicy są szczegółowo informowani, w jaki sposób zostaną powiadomieni o wszelkich naruszeniach Warunków korzystania z usługi lub wytycznych dla społeczności, oraz jak i gdzie mogą składać oświadczenia lub odwołania.

Przykłady skarg

W każdym okresie raportowania gromadzimy przykłady najlepiej ilustrujące decyzje, jakie podjęliśmy w sprawie treści zgłoszonych jako niezgodne z prawem. Chcemy w ten sposób pokazać zakres treści, do których odnosi się ustawa NetzDG, oraz jakie rodzaje materiałów są zgłaszane do usunięcia.

Okres
sty 2018 – cze 2018
Rodzaj
Brak możliwości podjęcia działań prawnych

Teledysk przedstawiający nagiego mężczyznę wychodzącego z oceanu został kilkakrotnie zgłoszony w związku z niezgodnym z prawem prezentowaniem treści erotycznych.

Okres
sty 2018 – cze 2018
Rodzaj
Brak możliwości podjęcia działań prawnych

Przemówienie Angeli Merkel z rozważaniami na temat przynależności islamu do kultury niemieckiej zgłaszano z powodu rzekomego szerzenia nienawiści, a także jako treści o charakterze terrorystycznym, ponieważ zdaniem osób zgłaszających Angela Merkel naraża kraj na niebezpieczeństwo i prowadzi Niemcy w stronę katastrofy.

Okres
sty 2018 – cze 2018
Rodzaj
Brak możliwości podjęcia działań prawnych

Film Jana Böhmermanna, w którym poddaje on krytycznej i satyrycznej dyskusji skrajnie prawicową grupę, został zgłoszony kilkakrotnie pod zarzutem szerzenia nienawiści, przemocy, spamu, zniesławienia oraz znieważania.

Okres
sty 2018 – cze 2018
Rodzaj
Brak możliwości podjęcia działań prawnych

Komentarz zachwalający „przytulanie w zaciszu domowym” zgłoszono w kategorii „działania szkodliwe lub niebezpieczne”.

Okres
sty 2018 – cze 2018
Rodzaj
Zewnętrzny doradca

Film pokazujący znanego niemieckiego ekstremistę islamskiego wzywającego na modlitwę „dua” i rytuał „tawaf”, gdzie w tle słychać nawoływania „takbir”, został wielokrotnie zgłoszony na podstawie ustawy NetzDG jako treści o charakterze terrorystycznym. Jednak ponieważ perspektywa działalności misyjnej da’wa pozwala również zinterpretować ten materiał inaczej niż jako propagandowy, po zasięgnięciu zewnętrznej opinii film uznano za zgodny z prawem.

Usuwanie treści na podstawie ustawy NetzDG

Firma Google przekazuje informacje o usuwaniu treści, zasadach oraz procedurach zawarte w tym raporcie na podstawie niemieckiej ustawy o egzekwowaniu prawa w sieci.

Pobierz raport

Archiwum zgłoszeń dotyczących YouTube
Działania szkodliwe lub niebezpieczne
Treści nielegalne lub dotyczące terroryzmu
Szerzenie nienawiści lub polityczny ekstremizm
Działania szkodliwe lub niebezpieczne
Treści nielegalne lub dotyczące terroryzmu
Szerzenie nienawiści lub polityczny ekstremizm
Działania szkodliwe lub niebezpieczne
Treści nielegalne lub dotyczące terroryzmu
Szerzenie nienawiści lub polityczny ekstremizm
Działania szkodliwe lub niebezpieczne
Treści nielegalne lub dotyczące terroryzmu
Szerzenie nienawiści lub polityczny ekstremizm