투명성 보고서

주요 정책

이 섹션에서는 YouTube의 자동 신고 시스템이 위반 콘텐츠를 감지하는 데 도움이 되는 일부 정책 분야에 관한 세부정보가 제공됩니다. 문제의 소지가 있는 콘텐츠가 자동 시스템에 의해 신고되면 해당 콘텐츠의 검토자가 콘텐츠의 실질적인 정책 위반 여부를 확인하고 적절한 조치를 취합니다. 이러한 결정을 통해 YouTube의 시스템은 계속해서 학습 및 강화되어 향후 정확성이 높아집니다.

주요 정책: 폭력적 극단주의

폭력적 극단주의에 대한 YouTube 정책을 위반하는 콘텐츠에는 정부에 등록된 국외 테러리스트 조직이 제작한 자료도 포함됩니다. YouTube는 테러리스트 조직이 조직원 모집과 같은 어떠한 목적으로도 YouTube를 사용하도록 허용하지 않습니다. 또한 YouTube는 테러 행위를 미화하거나 폭력을 선동하는 등 테러를 조장하는 콘텐츠를 엄격히 금지합니다. 단, 교육, 기록, 과학, 예술적 맥락에서 공유되는 콘텐츠는 허용됩니다.

정부에 등록된 국외 테러리스트 조직이 아닌 폭력적 극단주의 단체에서 제작한 콘텐츠에는 증오성 콘텐츠 또는 폭력적이거나 자극적인 콘텐츠의 게시를 금지하는 Google 정책이 적용되는 경우가 많으며, 여기에는 주로 충격적이거나 선정적이거나 불필요한 콘텐츠가 포함됩니다. 검토자는 신고된 콘텐츠를 Google의 모든 커뮤니티 가이드라인과 정책에 따라 평가합니다. Google은 이 섹션 내 수치를 폭력적 극단주의 정책에 따라 삭제된 콘텐츠로 제한하고 있습니다.

삭제된 총 동영상 수
328,021

커뮤니티 가이드라인 및 시행 세부정보

YouTube가 기술을 사용하여 위반 콘텐츠를 감지하는 방식: 폭력적 극단주의

YouTube에서는 정책 위반 소지가 있는 콘텐츠를 감지할 수 있도록 도와주는 자동 시스템을 개발했습니다. 문제의 소지가 있는 콘텐츠가 자동 시스템에 의해 신고되면 검토자가 콘텐츠의 실질적인 정책 위반 여부를 검토합니다. 위반한 것으로 확인된 경우에는 콘텐츠가 삭제되며, 이러한 결정을 통해 YouTube의 시스템은 학습되어 향후 정확성이 높아집니다. 콘텐츠를 게시한 계정은 보통 경고를 받으며, 경고가 여러 번 누적되면 계정이 폐쇄됩니다. 극단주의 콘텐츠를 감지하는 자동 시스템과 관련하여 YouTube 팀에서는 300만 개가 넘는 동영상을 직접 검토하여 대량의 학습 예시를 제공했으며, 이는 머신러닝 신고 기술을 개선하는 데 도움이 되었습니다.

머신러닝은 이제 극단주의 콘텐츠가 광범위하게 퍼지기 전에 게시를 중단하는 데 많은 도움이 됩니다. 이러한 유형의 콘텐츠에 대항하기 위한 Google의 막대한 투자는 2022년 4월부터 6월까지 효과를 보였습니다. 폭력적 극단주의 정책을 위반하여 삭제된 동영상의 약 95%가 자동으로 신고되었습니다.

해시 공유: 폭력적 극단주의

YouTube는 알려진 위반 콘텐츠가 대중에 공개되기 전에 해당 콘텐츠의 재업로드를 방지하는 기술을 사용하고 있습니다. YouTube에서는 오래전부터 이 기술을 사용하여 아동 성적 학대 이미지가 플랫폼에서 확산되지 않도록 방지했습니다. 2016년에 YouTube는 업계 파트너와 함께 해시 공유 데이터베이스를 구축했습니다. 이 데이터베이스에서는 테러 관련 콘텐츠의 해시(‘디지털 지문’)를 공유하여 확산을 막습니다. 공유 데이터베이스에는 현재 사람의 눈과 거의 동일한 400,000개 이상의 고유 해시가 포함되어 있습니다.

YouTube의 방대한 미디어 라이브러리와 자동화된 감지 시스템을 통해 Google은 해시 공유 데이터베이스의 해시에 상당한 기여를 하고 있습니다. GIFCT(테러에 대처하기 위한 세계 인터넷 포럼)에서 수립한 공유 기준에 따라 2023년 YouTube는 해시 공유 데이터베이스에 45,000개 이상의 고유 해시를 제공했습니다.

콘텐츠가 해싱되면 다른 플랫폼에서 이 해시를 사용하여 관련 콘텐츠를 감지하고 자체 콘텐츠 정책에 따라 평가할 수 있습니다. 2017년 이후 이 데이터베이스에 기여하고 도움을 받고 있는 기업의 수가 4개에서 13개로 늘어났습니다. 이와 같은 조직적 노력은 이제 GIFCT(테러에 대처하기 위한 세계 인터넷 포럼)에서 공식적으로 운영합니다.

테러에 대처하기 위한 세계 인터넷 포럼: 폭력적 극단주의

2017년에 YouTube, Facebook, Microsoft, Twitter에서는 GIFCT(테러에 대처하기 위한 세계 인터넷 포럼)를 설립하여 테러리스트가 멤버 기업의 디지털 플랫폼을 남용하는 것을 막기 위해 함께 노력하고 있습니다. 이러한 기업들은 몇 년 동안 대테러와 관련된 권장사항을 서로 공유해 왔지만, GIFCT를 통해 이러한 노력을 가속화하고 강화하기 위한 더욱 공식적인 기반을 마련하고 테러리스트 콘텐츠의 온라인 확산 방지를 위한 하나의 연합된 전선을 구축했습니다. GIFCT는 테러 방지 기술 이니셔티브와의 협력을 바탕으로 기술 기업, 비정부 기구 및 국제 정부 기관이 함께하는 글로벌 워크숍을 주최하고 있습니다.

다양한 구성원 및 업계 파트너가 해시 공유 데이터베이스를 사용함에 따라 콘텐츠의 해시 검토 및 공유를 위해서는 테러리스트 및 극단주의 콘텐츠를 구성하는 항목이 무엇인가에 대한 기본 합의가 필요했습니다. GIFCT의 2021년 연간 투명성 보고서에 언급된 바에 따르면, “해시 공유 데이터베이스의 원래 범위는 UN 안전보장이사회의 통합 제재 목록에 있는 조직과 관련된 콘텐츠로 제한됩니다.”

GIFCT의 다른 창립 멤버와 YouTube는 온라인에서 테러리스트 및 극단주의자의 콘텐츠를 없애기 위해 크라이스트처치 콜(Christchurch Call)에 서명하였습니다. 크라이스트처치 콜(Christchurch Call)을 토대로 GIFCT는 GIFCT 회원인 기업이 실제 폭력적인 테러 사건 이후에 가해자가 만든 라이브 스트리밍 콘텐츠에 효율적으로 대응할 수 있도록 새로운 콘텐츠 대응 프로토콜(CIP)을 개발했습니다. 이 프로토콜은 테스트를 거쳐 효율성이 입증되었습니다. 독일 할레 유대교 회당 테러 사건(2019년 10월), 미국 애리조나주 글렌데일 총격 사건(2020년 5월), 미국 뉴욕주 버팔로 총격 사건(2022년 6월), 미국 테네시주 멤피스 총격 사건(2022년 9월)을 그 예로 들 수 있습니다. GIFCT는 CIP를 만든 후 실시간 스트리밍 형태가 아닌, 가해자가 제작한 동영상과 실제 사건을 묘사하는 이미지에 대응하기 위해 콘텐츠 사고 등급을 포함하도록 하는 사고 대응 프레임워크를 추가로 개발했습니다. 이는 인도 라자스탄 우다이푸르에서 발생한 공격(2022년 7월) 이후 처음으로 활성화되었습니다.

GIFCT는 독자적인 이사회 멤버와 직원들로 구성된 독립적인 조직으로 발전해왔습니다. 또한 시민 단체, 인권 전문가, 연구자 및 기술 전문가 등을 비롯한 정부 기관에 속하지 않은 회원과 정부 기관 담당자로 이루어진 독립 자문위원회도 GIFCT 체계의 한 축을 담당하고 있습니다. 기관에 대한 새로운 관리 체제하에서 YouTube는 GIFCT의 집행 운영 위원회를 담당하고 있습니다.

교육, 다큐멘터리, 과학 및 예술적 콘텐츠: 폭력적 극단주의

사용자가 교육, 기록, 과학 또는 예술적 목적의 테러리즘 관련 콘텐츠를 게시하는 경우 Google은 시청자가 맥락을 이해할 수 있도록 충분한 정보를 제공할 것을 독려합니다. 충격적이거나 선정적이거나 불필요한 측면을 주로 의도한 폭력적이거나 잔인한 콘텐츠를 게시하는 행위는 허용되지 않으며, 동영상이 특히 자극적이거나 충격적인 경우에는 시청자가 내용을 이해하는 데 도움이 되도록 소개, 보이스오버 해설이나 텍스트 오버레이는 물론 명확한 제목과 설명을 통해 추가 맥락 및 정보로 균형을 맞춰야 합니다. 문서나 교육적 맥락을 제공할 경우 시청자와 검토자가 간혹 충격적일 수 있는 콘텐츠가 계속 YouTube에 게시되어 있는 이유를 이해하는 데 도움이 됩니다. 예를 들어, 구타당하고 있는 시위자의 영상을 캡처하여 관련 정보(날짜, 위치, 맥락 등)와 함께 업로드하는 시민 기자의 경우 업로드가 허용될 가능성이 높습니다. 하지만 맥락적 또는 교육적 정보 없이 같은 영상을 게시할 경우 불필요한 콘텐츠로 간주되어 사이트에서 삭제될 수 있습니다. 자극적이거나 논란의 여지가 있는 영상에는 연령 제한 또는 경고 화면이 적용될 수 있습니다.

우선 신고자: 폭력적 극단주의

YouTube에서는 모든 정책 분야에 걸쳐 300개가 넘는 정부 파트너 및 NGO로 이루어진 네트워크에 대한 투자를 계속하고 있으며, 이들은 우선 신고자 프로그램 등을 통해 YouTube의 정책 시행 시스템에 소중한 전문 지식을 제공하고 있습니다. 우선 신고자 프로그램의 참여자는 YouTube 커뮤니티 가이드 시행에 대한 훈련을 받으며, 이들의 신고는 일반 사용자에 비해 조치율이 높기 때문에 우선 검토 대상이 됩니다. 우선 신고자 프로그램의 참여자는 신용안전팀과 직접 소통할 수 있는 라인을 통해 문제를 더 빠르게 해결할 수 있습니다. 우선 신고자가 신고한 콘텐츠에는 다른 사용자가 신고한 콘텐츠와 동일한 정책이 적용되며, 해당 콘텐츠는 콘텐츠가 커뮤니티 가이드에 위반되며 삭제되어야 하는지 결정하도록 훈련된 팀에서 검토합니다.

신고된 동영상 처리 예: 폭력적 극단주의

다음은 커뮤니티 가이드를 위반할 수 있다고 판단되어 신고된 동영상의 예입니다. 이러한 예는 Google에 신고되는 콘텐츠의 범위를 알려주지만, 전체 예를 포괄하지는 않습니다.

신고 이유
성적
신고자 유형
우선 신고자
동영상 설명
미성년자가 성행위를 하는 모습을 묘사하는 동영상입니다.
결과
동영상이 미성년자를 성적 대상으로 표현하는 콘텐츠를 금지하는 아동 안전 정책을 위반하여 채널이 삭제되었습니다.
신고 이유
아동 학대
신고자 유형
우선 신고자
동영상 설명
미성년자를 성적 대상화하는 동영상 제목이 포함된 미성년자의 성적이지 않은 행위를 묘사한 동영상입니다.
결과
동영상이 미성년자를 성적 대상으로 표현하는 콘텐츠를 금지하는 아동 안전 정책을 위반하여 채널이 삭제되었습니다.
신고 이유
증오성 또는 악의적
신고자 유형
우선 신고자
동영상 설명
미성년자가 동성애자임을 암시하는 오디오와 함께 다른 사람의 몸에 얼굴을 대고 있는 미성년자를 묘사한 동영상입니다.
결과
동영상이 미성년자를 수치스럽게 하거나 속이거나 모욕하려는 의도가 있는 콘텐츠를 금지하는 괴롭힘 및 사이버 폭력 정책을 위반하여 채널이 삭제되었습니다.
신고 이유
아동 학대
신고자 유형
우선 신고자
동영상 설명
학교에 있는 미성년자에게 성적인 이미지를 요구하는 동영상입니다.
결과
동영상이 미성년자를 성적 대상으로 표현하는 콘텐츠를 금지하는 아동 안전 정책을 위반하여 채널이 삭제되었습니다.
신고 이유
증오성 또는 악의적
신고자 유형
사용자
동영상 설명
2019년 3월 뉴질랜드 크라이스트처치의 이슬람교 사원에서 총격 사건이 일어났다고 주장한 동영상은 허위였습니다.
결과
동영상이 관련 증거가 많은 폭력 사건의 발생 자체를 부인하는 콘텐츠를 금지하는 증오심 표현 정책을 위반하여 삭제되었습니다.

YouTube 커뮤니티 가이드 시정 조치

전 세계 뷰어와 크리에이터는 YouTube를 사용하여 자신의 아이디어와 의견을 표현합니다. 책임에 대한 YouTube의 접근 방식에는 위반 콘텐츠 삭제(Remove), 권위 있는 목소리 높이기(Raise), 정책 위반 가능성이 있는 콘텐츠의 추천 줄이기(Reduce), 신뢰할 수 있는 크리에이터 보상(Reward)이라는 네 가지 R이 포함됩니다.

YouTube 작동의 원리에서 자세히 알아보기