Raport przejrzystości

Uwzględnione zasady

W tej sekcji znajdują się szczegółowe informacje dotyczące obszarów objętych zasadami, w których nasze systemy zgłaszania automatycznego istotnie przyczyniają się do wykrycia niewłaściwych treści. Gdy automatyczne systemy zgłoszą potencjalnie problematyczne treści, weryfikatorzy sprawdzają, czy rzeczywiście doszło do naruszenia zasad, i podejmują odpowiednie działania. Decyzje weryfikatorów są wykorzystywane przy uczeniu naszych systemów, by mogły działać jeszcze skuteczniej.

Uwzględnione zasady: Brutalny ekstremizm

Treści, które naruszają nasze zasady związane z brutalnym ekstremizmem, to między innymi materiały produkowane przez ścigane prawem zagraniczne organizacje terrorystyczne. Nie zezwalamy organizacjom terrorystycznym na korzystanie z YouTube w żadnym celu, w tym do rekrutacji. W YouTube ściśle zakazane są także treści promujące terroryzm, np. gloryfikujące akty terrorystyczne lub podżegające do przemocy. Dopuszczalne są tylko treści udostępniane w celach edukacyjnych, dokumentacyjnych, naukowych lub prezentujące kontekst artystyczny.

Treści przygotowywane przez brutalne grupy ekstremistyczne niezaliczające się do ściganych prawem zagranicznych organizacji terrorystycznych zwykle naruszają nasze zasady dotyczące publikowania treści szerzących nienawiść lub drastycznych bądź przedstawiających przemoc, w tym treści publikowanych z zamiarem szokowania, wywołania sensacji czy bezzasadnie. Weryfikatorzy oceniają zgłoszone treści pod kątem wszystkich zasad i wytycznych dla społeczności. Dane w tej sekcji ograniczają się do treści usuniętych z powodu naruszania zasad związanych z brutalnym ekstremizmem.

Łączna liczba usuniętych filmów
328 021

Wytyczne dla społeczności i ich egzekwowanie

Jak YouTube wykorzystuje technologię do wykrywania treści naruszających zasady – brutalny ekstremizm

W YouTube korzystamy z opracowanych wewnętrznie automatycznych systemów ułatwiających wykrywanie treści mogących naruszać nasze zasady. Gdy automatyczne systemy zgłoszą potencjalnie problematyczne treści, weryfikatorzy sprawdzają, czy rzeczywiście doszło do naruszenia zasad. Jeśli tak, materiały są usuwane i przekazywane do wykorzystania podczas trenowania naszych systemów w celu zwiększenia ich skuteczności. Na konto, z którego opublikowano problematyczne treści, wysyłane jest ostrzeżenie. Po kilku ostrzeżeniach następuje zamknięcie konta. Nasi weryfikatorzy sprawdzili ręcznie ponad 3 miliony filmów, przygotowując w ten sposób dla automatycznych systemów wykrywających treści ekstremistyczne pokaźną liczbę przykładów treningowych, które pozwoliły udoskonalić technologię zgłaszania opartą na wykorzystaniu systemów uczących się.

Systemy uczące się umożliwiają nam usuwanie materiałów związanych z ekstremizmem, zanim te trafią do szerszej publiczności. Nasze intensywne działania mające na celu zwalczanie tego typu treści odnoszą skutek: między kwietniem a czerwcem 2022 r. około 95% filmów usuniętych z powodu naruszenia zasad dotyczących ekstremizmu zostało najpierw zgłoszonych automatycznie.

Udostępnianie odcisków cyfrowych – brutalny ekstremizm

YouTube wykorzystuje technologię do zapobiegania ponownemu przesyłaniu i upublicznianiu materiałów, o których wiadomo, że naruszają obowiązujące zasady. Od dawna stosujemy tę technologię do blokowania materiałów wizualnych związanych z wykorzystywaniem seksualnym dzieci. W 2016 roku wraz z partnerami branżowymi opracowaliśmy bazę danych odcisków cyfrowych (nazywanych również haszami) treści związanych z terroryzmem, aby powstrzymać ich rozpowszechnianie. Udostępniona baza danych zawiera obecnie ponad 400 000 unikalnych haszówreprezentujących treści, których nie dałoby się rozróżnić gołym okiem.

Dzięki automatycznym systemom wykrywania i obszernej bibliotece multimediów w YouTube sami dostarczamy bardzo wiele haszy do bazy danych. Zgodnie z kryteriami udostępniania określonymi przez globalne forum internetowe do zwalczania terroryzmu GIFC (Global Internet Forum to Counter Terrorism) w 2023 roku przesłaliśmy z YouTube do bazy danych odcisków cyfrowych ponad 45 000 unikalnych haszów.

Po zahaszowaniu treści inne platformy mogą używać tych haszów, aby wykrywać powiązane materiały i oceniać je pod kątem własnych zasad dotyczących treści. Od 2017 roku liczba firm dostarczających materiały do tej bazy i korzystających z niej wzrosła z 4 do 13. Ten wspólny wysiłek oficjalnie odbywa się teraz pod szyldem GIFCT (Global Internet Forum to Counter Terrorism, Globalne Forum Internetu przeciw Terroryzmowi).

Globalne forum internetowe do walki z terroryzmem – brutalny ekstremizm

W 2017 roku przedstawiciele YouTube, Facebooka, Microsoftu i Twittera założyli Global Internet Forum to Counter Terrorism (Globalne Forum Internetu przeciw Terroryzmowi, GIFCT), aby przeciwdziałać wykorzystywaniu przez terrorystów platform cyfrowych firm – założycielek. Chociaż nasze firmy od lat dzielą się sprawdzonymi metodami walki z terroryzmem, to utworzenie GIFCT zapewniło tym działaniom bardziej formalną strukturę, pozwalając przyspieszyć prace, zwiększyć ich zasięg i stworzyć jednolity front przeciwko rozpowszechnianiu w sieci treści związanych z terroryzmem. We współpracy z inicjatywą Tech Against Terrorism (Technologia Przeciw Terroryzmowi) GIFCT prowadzi międzynarodowe warsztaty dla firm technologicznych, organizacji pozarządowych i organów międzynarodowych.

Z bazy danych odcisków cyfrowych korzystają różni użytkownicy i partnerzy branżowi, dlatego na potrzeby weryfikacji i udostępniania haszów treści konieczne było uzgodnienie, jakie treści powinny być uznawane za terrorystyczne i ekstremistyczne. Jak zaznaczono w opracowanym przez GIFCT rocznym raporcie przejrzystości z 2021 r. „pierwotny zakres bazy danych odcisków cyfrowych jest ograniczony do treści związanych z organizacjami objętymi sankcjami ONZ zgodnie z rezolucjami Rady Bezpieczeństwa”.

YouTube i pozostali członkowie-założyciele GIFCT zademonstrowali poparcie dla inicjatywy Christchurch Call to Eliminate Terrorist and Violent Extremist Content Online (inicjatywy na rzecz walki z terrorystycznymi i ekstremistycznymi treściami w sieci). W ramach Christchurch Call organizacja GIFCT opracowała nowy protokół dla incydentów związanych z treściami (Content Incident Protocol, CIP), umożliwiając swoim członkom sprawne reagowanie na tworzone przez sprawców i transmitowane na żywo treści po brutalnych wydarzeniach w świecie rzeczywistym. Protokół ten został przetestowany i okazał się skuteczny, na przykład po ataku na synagogę w Halle w Niemczech (październik 2019 r.), strzelaninie w Glendale (Arizona) w USA (maj 2020 r.), strzelaninie w Buffalo (Nowy Jork) w USA (czerwiec 2022 r.) i strzelanie w Memphis (Tennessee) w USA (wrzesień 2022 r.). Od czasu utworzenia CIP GIFCT rozwinęło sposób reagowania na incydenty (Incident Response Framework) – treści utworzone przez sprawców i nietransmitowane na żywo filmy oraz zdjęcia przedstawiające rzeczywiste wydarzenia są przypisywane do odpowiedniego poziomu reagowania. To podejście wykorzystano po raz pierwszy po ataku w Udaipurze (Radżastan) w Indiach (lipiec 2022 r.).

GIFCT przeszło ewolucję, stając się samodzielną organizacją z niezależnym dyrektorem wykonawczym i personelem. Struktura GIFCT obejmuje również niezależny komitet doradczy złożony z przedstawicieli władz państwowych i organizacji pozarządowych, w tym grup interesu, specjalistów w dziedzinie praw człowieka, naukowców i ekspertów technicznych. W nowej strukturze GIFTC YouTube ma swojego przedstawiciela w zarządzie operacyjnym.

Treści edukacyjne, dokumentalne, naukowe i artystyczne – brutalny ekstremizm

Użytkowników, którzy publikują treści związane z terroryzmem w celach edukacyjnych, dokumentalnych, naukowych lub artystycznych, zachęcamy do dbania o odpowiedni opis, który pozwoli widzom poznać kontekst udostępniania takich materiałów. Nie zezwalamy na publikowanie brutalnych lub drastycznych treści z zamiarem szokowania, wywołania sensacji czy bezzasadnie. Filmy drastyczne lub wywołujące silne emocje powinny mieć wyraźnie określony kontekst oraz uwzględniać dodatkowe informacje, które pomogą widzom zrozumieć, co oglądają. Mogą one mieć postać wprowadzenia, komentarza lektora lub nałożonego tekstu, jak również jednoznacznego tytułu i opisu. Wskazanie kontekstu dokumentalnego lub edukacyjnego może pomóc widzom oraz weryfikatorom zrozumieć, dlaczego niektóre materiały potencjalnie wywołujące silne emocje pozostają dostępne w YouTube. Na przykład materiał na temat pobicia uczestników protestu, przesłany przez dziennikarza zajmującego się sprawami obywatelskimi wraz z odpowiednimi informacjami (data, lokalizacja, kontekst itp.), zostanie prawdopodobnie zaakceptowany. Jednak ten sam materiał bez danych kontekstowych lub edukacyjnych może zostać uznany za bezzasadny i usunięty z witryny. Materiały drastyczne lub kontrowersyjne mogą być poddawane ograniczeniom wiekowym lub poprzedzane ekranem z ostrzeżeniem.

Priorytetowe podmioty sygnalizujące: brutalny ekstremizm

W obszarach objętych naszymi zasadami stale utrzymujemy sieć ponad 300 partnerów (rządowych i pozarządowych), którzy wnoszą cenny wkład w nasze systemy egzekwowania zasad, także w ramach programu dla priorytetowych podmiotów sygnalizujących. Uczestnicy programu dla priorytetowych podmiotów sygnalizujących biorą udział w szkoleniach z egzekwowania wytycznych dla społeczności YouTube. Ponieważ ich zgłoszenia prowadzą do podjęcia działań częściej niż zgłoszenia pozostałych użytkowników, traktujemy je priorytetowo. Uczestnicy programu dla priorytetowych podmiotów sygnalizujących kontaktują się bezpośrednio z naszymi zespołami ds. zaufania i bezpieczeństwa, aby usprawnić proces usuwania treści. Materiały zgłaszane przez priorytetowe podmioty sygnalizujące podlegają tym samym zasadom co materiały zgłaszane przez każdego innego użytkownika. Są one sprawdzane przez nasze odpowiednio przeszkolone zespoły, których członkowie podejmują decyzję, czy doszło do naruszenia wytycznych dla społeczności i czy treści powinny zostać usunięte.

Przykładowe zgłoszenia: Brutalny ekstremizm

Oto przykłady filmów zgłoszonych jako potencjalnie naruszające nasze wytyczne dla społeczności. Pokazują one różnorodność zgłaszanych treści, jednak nie są to wyczerpujące dane.

Przyczyna zgłoszenia
Treści o charakterze seksualnym
Typ zgłaszającego
Priorytetowy podmiot sygnalizujący
Opis filmu
Film przedstawiający osobę małoletnią uczestniczącą w czynności seksualnej.
Rezultat
Kanał został usunięty, ponieważ film narusza zasady dotyczące bezpieczeństwa dzieci zabraniające publikowania treści pornograficznych z udziałem osób małoletnich.
Przyczyna zgłoszenia
Wykorzystywanie dzieci
Typ zgłaszającego
Priorytetowy podmiot sygnalizujący
Opis filmu
Film przedstawiający osobę małoletnią, która nie uczestniczy w czynności seksualnej, ale tytuł filmu przedstawia ją w kontekście seksualnym.
Rezultat
Kanał został usunięty, ponieważ film narusza zasady dotyczące bezpieczeństwa dzieci zabraniające publikowania treści pornograficznych z udziałem osób małoletnich.
Przyczyna zgłoszenia
Treści obraźliwe lub szerzenie nienawiści
Typ zgłaszającego
Priorytetowy podmiot sygnalizujący
Opis filmu
Film z dźwiękiem przedstawiający twarz osoby małoletniej nałożoną na ciało innej osoby, który sugeruje, że małoletni jest osobą homoseksualną.
Rezultat
Kanał został usunięty, ponieważ film narusza zasady dotyczące nękania w internecie lub poza nim, które zabraniają treści mających na celu poniżenie, oszukanie lub obrażanie osoby małoletniej.
Przyczyna zgłoszenia
Wykorzystywanie dzieci
Typ zgłaszającego
Priorytetowy podmiot sygnalizujący
Opis filmu
Film wykorzystujący obrazy przedstawiające w kontekście seksualnym małoletnich w szkole.
Rezultat
Kanał został usunięty, ponieważ film narusza zasady dotyczące bezpieczeństwa dzieci zabraniające publikowania treści pornograficznych z udziałem osób małoletnich.
Przyczyna zgłoszenia
Treści obraźliwe lub szerzenie nienawiści
Typ zgłaszającego
Użytkownik
Opis filmu
Film sugerujący, że zamachy na meczety w Christchurch w Nowej Zelandii przeprowadzone w marcu 2019 r. zostały zainscenizowane.
Rezultat
Film narusza zasady dotyczące szerzenia nienawiści zakazujące wypowiedzi zaprzeczających, że pewne brutalne wydarzenia miały miejsce, mimo że zostały one dobrze udokumentowane. Film został usunięty.

Zgodność z wytycznymi dla społeczności YouTube

YouTube stanowi platformę do dzielenia się pomysłami i wyrażania opinii dla widzów i twórców z całego świata. Pamiętając o odpowiedzialności, którą ponosimy wobec naszych użytkowników, postępujemy według 4 podstawowych reguł: usuwamy treści naruszające nasze zasady, polecamy wiarygodne materiały, ograniczamy rekomendacje treści bliskich łamania wytycznych i nagradzamy zaufanych twórców.

Więcej informacji znajdziesz na stronie Jak działa YouTube