Transparency Report

Mga pagsisikap ng Google para labanan ang online na materyal na nagpapakita ng sekswal na pang-aabuso sa bata

Nakatuon ang Google sa paglaban sa materyal na nagpapakita ng sekswal na pang-aabuso sa bata (child sexual abuse material o CSAM) online. Ilegal ang CSAM at ipinagbabawal ng aming Mga Tuntunin ng Serbisyo ang paggamit ng alinman sa mga platform o serbisyo ng Google para mag-store o mag-share ng ganitong content. Sa Google, buong araw na nagtatrabaho ang aming mga team para matukoy, maalis, at maiulat ang ganitong content, gamit ang kumbinasyon ng mga naka-automate na tool para sa pag-detect na nangunguna sa industriya at mga reviewer na sumailalim sa espesyal na pagsasanay. Nakakatanggap din kami ng mga ulat mula sa mga third party at sa aming mga user, na nakakatulong sa tuloy-tuloy naming pagsisikap. Iniuulat namin ang CSAM sa National Center for Missing and Exploited Children (NCMEC), ang sentro para sa pangangalap at pamamahagi ng impormasyon at komprehensibong pag-uulat sa United States para sa mga isyung may kinalaman sa pananamantala sa bata. Ipinapadala ng NCMEC ang mga ulat na iyon sa mga ahensyang nagpapatupad ng batas sa buong mundo.

Naglalaman ang ulat na ito ng data tungkol sa mga pandaigdigang pagsisikap at resource ng Google para malabanan ang CSAM sa aming platform.

Kabuuang dami ng content na iniulat sa NCMEC

Kapag may natukoy kaming CSAM sa aming mga platform, gumagawa kami ng ulat sa “CyberTipline” sa NCMEC. Ang isang ulat ay posibleng may isa o higit pang content depende sa sitwasyon. Posibleng kasama sa content na ito, halimbawa, ang mga larawan, video, URL, at/o text na nanghihingi ng CSAM. Puwedeng matukoy ang isang content sa mahigit sa isang account o sa mahigit sa isang pagkakataon, kaya ang sukatang ito ay puwedeng may mga kasamang content na iniulat nang mahigit sa isang beses.

Kabuuang bilang ng content na iniulat
2,829,178

Mga ulat sa CyberTipline ng NCMEC

Posibleng kasama sa ulat na ipinapadala sa NCMEC ang impormasyong tumutukoy sa user na responsable sa ilegal na content, sa biktimang menor de edad, sa mismong ilegal na content, at/o sa iba pang nakakatulong na impormasyon ayon sa konteksto. Posibleng mahigit sa isang ulat ang ipadala tungkol sa isang partikular na user o content — halimbawa, sa mga sitwasyon kung saan matutukoy ang content mula sa maraming source. Tina-triage ng NCMEC ang mga ulat na ito para ipadala sa mga ahensyang nagpapatupad ng batas sa buong mundo.

Kasama rin sa sukatang ito ang mga karagdagang ulat sa CyberTipline na ipinapadala ng Google sa NCMEC, na nagbibigay ng karagdagang impormasyon tungkol sa mga malalang kaso ng sekswal na pang-aabuso ng mga bata, kabilang ang aktwal o kasalukuyang sekswal na pang-aabuso ng mga bata at paggawa ng CSAM.

Makikita sa FAQ ang mga halimbawa ng epekto ng aming mga ulat at karagdagang impormasyon sa CyberTipline na ipinapadala namin sa NCMEC.

Kabuuang bilang ng mga ulat
599,046

Mga account na inaaksyunan dahil sa paglabag sa CSAM

Kapag natukoy ang CSAM sa Google account ng isang user, gagawa kami ng naaangkop na aksyon, kasama na ang pagpapadala ng ulat sa CyberTipline sa NCMEC. Posibleng gumawa rin kami ng ibang aksyon sa pagpapatupad sa account, kasama na pero hindi limitado sa pag-disable o paghihigpit sa access sa mga serbisyo. Bibigyan ng abiso ang mga naapektuhang user tungkol sa mga aksyon sa pagpapatupad at bibigyan sila ng pagkakataong mag-apela.

Kabuuang bilang ng account na inaaksyunan
360,375

Mga account na inaaksyunan sa bawat Bansa (Nangungunang 10)

Ipinapakita ng sukatang ito ang nangungunang 10 bansa kung saan nagbigay ang Google ng mga pagpapatupad sa account na nauugnay sa CSAM. Nakabatay ang data na ito sa mga pagtatalaga ng bansa sa user, na kadalasang tinutukoy nang ayon sa bansa kung saan ginawa ng user ang kanyang account o sa bansa kung saan pinakamadalas na ina-access ng user ang mga serbisyo ng Google.

Indonesia
India
Brazil
Russia
Estados Unidos
Mexico
Pilipinas
Thailand
Vietnam
Bangladesh

Mga URL na naiulat at na-deindex para sa CSAM mula sa Google Search

Ipinapakita ng sukatang ito ang bilang ng mga URL na iniulat at inalis namin sa index ng Search. Pinagsasama-sama at inaayos ng Google Search ang impormasyong pina-publish sa web. Hindi namin kontrolado ang content sa mga third-party na web page. Kapag may natukoy kaming CSAM sa mga web page ng third party, iniuulat, dine-deindex, at inaalis namin ang URL na iyon sa mga resulta ng Search, pero wala kaming kakayahang alisin ang content sa mismong page ng third party. Ang sukatang ito ay kumbinasyon ng mga naka-automate at manual na pag-aalis.

Mga URL na Naiulat at Na-deindex
402,839

Mga hash ng CSAM na iniambag sa database ng NCMEC

Kapag may natukoy kaming bagong CSAM, puwede kaming gumawa ng hash ng content at puwede naming idagdag iyon sa sarili naming internal na repository. Nagbibigay-daan sa amin ang teknolohiya sa pag-hash na mahanap ang mga dating natukoy na CSAM. Nagbabahagi rin kami ng mga hash value sa NCMEC para ma-access din ng iba pang provider ang mga hash na ito. Isa sa mga pangunahing paraan ang pag-aambag sa database ng hash ng NCMEC para malabanan ang online na CSAM sa buong industriya. Kinakatawan ng sukatang ito ang pinagsama-samang dami ng mga hash na naiambag ng Google sa pagsisikap na ito.

Kabuuang bilang ng mga hash na iniambag
2,643,419

Mga pagsisikap ng Google para labanan ang online na materyal na nagpapakita ng sekswal na pang-aabuso sa bata

Nakatuon ang Google sa pakikipagtulungan sa buong industriya at sa mga eksperto at tagagawa ng patakaran sa buong mundo para malabanan ang pagkalat ng CSAM online.

Matuto pa tungkol sa kung paano dine-detect, inaalis, at inuulat ng Google ang CSAM