- 報告の理由
- 性的表現
- 報告者のタイプ
- 優先報告者
- 動画の説明
- 未成年者の性行為を描写した動画。
- 結果
- 未成年者を性的対象として扱うコンテンツを禁止している児童の安全に関するポリシーに違反しているため、チャンネルが削除されました。
このセクションでは、違反コンテンツの検出に自動報告システムを活用しているポリシー分野について詳しく説明します。YouTube の自動システムが潜在的に問題のあるコンテンツを報告すると、審査担当者はそのコンテンツを審査し、コンテンツが実際にポリシーに違反しているかどうかを検証してから適切な措置を講じます。また、以降の検出精度を向上させるため、こうした判断内容を機械学習のトレーニングに利用して継続的な改善が行われます。
暴力的過激主義に関するポリシーに違反するコンテンツには、政府指定の海外テロリスト組織によって作成されたコンテンツが含まれます。YouTube では、勧誘を含むあらゆる目的においてテロリスト組織による利用を認めていません。また、テロ活動を称える内容や暴力を煽る内容など、テロリズムを助長するコンテンツは禁止されています。教育、記録、科学、芸術といった観点から公開されるコンテンツは許可されます。
政府指定の海外テロリスト組織ではない暴力的過激主義のグループによって作成されたコンテンツには、通常、悪意のあるコンテンツや暴力的または生々しい描写のコンテンツの投稿に関するポリシーが適用されます。こうしたコンテンツには、衝撃を与えること、世間を騒がせること、もしくは不当に不快感を与えることを主な目的とするコンテンツが含まれます。審査担当者は、報告されたコンテンツを YouTube のすべてのコミュニティ ガイドラインとポリシーに基づいて評価します。このセクションでは、暴力的過激主義に関するポリシーへの違反を理由に削除されたコンテンツの件数のみを掲載しています。
YouTube は、ポリシー違反の可能性があるコンテンツの検出を支援する自動システムを開発しました。YouTube の自動システムが潜在的に問題のあるコンテンツを報告すると、審査担当者はそのコンテンツを審査し、コンテンツが実際にポリシーに違反しているかどうかを検証します。ポリシーに違反している場合、そのコンテンツは削除され、また、それ以降の検出精度を向上させるために機械学習のトレーニング素材として利用されます。通常、問題のコンテンツを投稿したアカウントは警告を受け、繰り返し警告を受けるとアカウントが停止されます。過激主義のコンテンツを検出する自動システムに関して、YouTube のチームは 300 万本以上の動画を手動で審査し、大量のトレーニング用サンプルを提供して、機械学習による報告技術の改善に役立てました。
現在は機械学習により、暴力的過激主義のコンテンツを多くのユーザーが閲覧する前に削除できるようになりました。この種のコンテンツの撲滅に対する Google の大規模な取り組みは効果を上げています。2022 年 4 月から 6 月にかけて、暴力的過激主義に関するポリシーに違反しているとして削除された動画の約 95% は、最初に自動システムで報告されたものです。
YouTube は、報告済みの違反コンテンツが再アップロードによって公開されるのを防ぐためにテクノロジーを利用しています。このテクノロジーは、児童への性的虐待の画像が YouTube で拡散するのを防ぐために長い間使用されてきました。2016 年には、業界のパートナーとともにハッシュ値共有データベースを作成し、テロリストが作成したコンテンツのハッシュ値(「デジタル フィンガープリント」とも呼ばれます)を共有して、コンテンツの拡散を阻止しました。現在、共有データベースには 400,000 以上の一意のハッシュ値が登録されています。これは、人間が目視で確認したのとほぼ同じです。
YouTube はその膨大なメディア ライブラリと自動検出システムにより、ハッシュ値共有データベースに膨大な数のハッシュ値を提供して貢献しています。GIFCT(Global Internet Forum to Counter Terrorism)が確立したハッシュ値共有基準に基づいて YouTube が 2023 年にハッシュ値共有データベースに登録したハッシュ値の数は、45,000 を超えています。
コンテンツのハッシュ値が生成されると、他のプラットフォームがそのハッシュ値を利用してプラットフォーム上の関連コンテンツを検出し、独自のコンテンツ ポリシーに照らして評価できるようになります。2017 年以降、このデータベースに協力して利用している企業の数は 4 社から 13 社に増加しています。このような組織的な取り組みは、現在、GIFCT によって正式に運営されています。
2017 年、YouTube、Facebook、Microsoft、Twitter は、テロリストによる各社のデジタル プラットフォームの利用を阻止する専門の企業グループとして、GIFCT(Global Internet Forum to Counter Terrorism)を設立しました。各社は数年前からテロ対策に関する手法や情報を共有してきましたが、GIFCT の設立により、そうした取り組みを促進、強化するとともに、オンライン上でのテロリストのコンテンツ配布に対する共同戦線を構築するための正式な体制が整いました。GIFCT では、Tech Against Terrorism イニシアチブと連携して、世界中でワークショップを開催しています。ワークショップには、テクノロジー企業、非政府組織、国際政府機関が参加しています。
さまざまなメンバーや業界パートナーがハッシュ値共有データベースを利用しているため、コンテンツのハッシュ値を確認して共有するには、テロリストや過激主義者のコンテンツだと判断する基準について、基本的なコンセンサスが必要でした。GIFCT の 2021 年次透明性レポートに記載されているように、「ハッシュ値共有データベースの当初の範囲は、国連安全保障理事会の統合制裁対象者リストに記載されている組織に関連するコンテンツに限定されています」。
YouTube とその他の GIFCT 設立メンバーは、オンライン上のテロリズムと暴力的過激主義に対して行動するためのクライストチャーチ コールに署名しています。GIFCT は、クライストチャーチ コールに基づき、現実世界での暴力を伴う出来事の後で加害者が作成したライブ配信コンテンツに効率的に対応するために、GIFCT メンバー向けの新たなコンテンツ インシデント プロトコル(CIP)を策定しました。このプロトコルは、ドイツのハレにあるシナゴーグへの攻撃(2019 年 10 月)や、米国アリゾナ州グレンデールでの銃撃(2020 年 5 月)、米国ニューヨーク州バッファローでの銃撃(2022 年 6 月)、米国テネシー州メンフィスでの銃撃(2022 年 9 月)などにおいて検証され、効果が実証されています。CIP の策定以降、GIFCT のインシデント対応フレームワークはさらに発展し、現実世界の事件を対象に加害者が作成した、ライブ配信以外の動画や画像に対応するためのコンテンツ インシデント階層が追加されています。この階層は、インドのラージャスターン州ウダイプルでの攻撃(2022 年 7 月)を受けて発効に至りました。
GIFCT は、独立したエグゼクティブ ディレクターとスタッフを擁する、他に依存しない組織へと発展しました。GIFCT の組織には、政府代表および民間のメンバー(支持団体、人権専門家、研究者、技術専門家など)で構成される独立諮問委員会もあります。その新しいガバナンスの枠組みの中で、YouTube は、GIFCT の執行運営委員会のメンバーとして活動しています。
YouTube では、ユーザーが教育、記録、科学、または芸術を目的としてテロに関連するコンテンツを投稿する場合、視聴者がその背景事情を理解できるように、十分な説明と情報の提供を心掛けることをユーザーに推奨しています。衝撃を与えること、世間を騒がせること、もしくは不当に不快感を与えることを主な目的とする暴力的または残虐なコンテンツを投稿することは許可されません。生々しく不快感を与える内容の動画には、導入部やナレーションによる注釈、テキスト オーバーレイのほか、わかりやすいタイトルや説明などを通じてコンテキストや情報を補うことで、視聴者が見ようとしている動画の内容を理解できるようにする必要があります。記録や教育目的という背景情報を提供することで、不快感を与える可能性のあるコンテンツが YouTube 上で公開されている理由を視聴者や審査担当者が理解しやすくなります。たとえば、抗議活動をする人が殴られる映像を撮影した市民ジャーナリストが、関連情報(日付、場所、状況など)を付けてその映像をアップロードすることは許可される可能性があります。しかし、同じ映像をコンテキストや教育目的などの背景情報なしで投稿すると、不快感を与えるコンテンツとみなされて削除される可能性があります。生々しいコンテンツや物議を醸す映像には、年齢制限が設けられたり、警告画面が表示されたりする場合があります。
YouTube では、ポリシーの全分野にわたって 300 を超える政府機関、NGO からなるネットワークに継続的に投資し、該当機関には、優先報告者プログラムなどを通じて YouTube の違反取り締まりシステムに貴重な専門知識を提供していただいています。優先報告者プログラムの参加者は、YouTube のコミュニティ ガイドラインを適用するためのトレーニングを受けています。プログラム参加者が報告した動画が削除される割合は平均的な一般ユーザーによる報告の場合よりも高いため、プログラム参加者からの報告は優先して審査されます。優先報告者プログラムの参加者は、より迅速に問題を解決するために、Trust & Safety チームと直接連絡を取り合っています。優先報告者によって報告されたコンテンツには、他のユーザーから報告されたコンテンツと同じポリシーが適用され、コンテンツがコミュニティ ガイドラインに違反しているかどうか、削除する必要があるかどうかを判断するためのトレーニングを受けた審査チームによって審査されます。
以下は、YouTube のコミュニティ ガイドライン違反の可能性があると報告された動画の例です。これらの例から、さまざまなコンテンツが報告されていることがおわかりいただけるかと思います(ここに掲載したコンテンツは包括的なものではありません)。
世界中の視聴者やクリエイターが、自分のアイデアや意見を表現するために YouTube を利用しています。YouTube では、「Remove violative content: 暴力的なコンテンツを削除する」、「Raise authoritative voices: 権威ある声を上げる」、「Reduce recommendations of borderline content: ガイドラインのボーダーライン上のコンテンツの推奨を減らす」、「Reward trusted creators: 信頼できるクリエイターに報酬を提供する」の 4 つの R に基づいて責任に対する取り組みを進めています。
「YouTube の取り組み」で詳細な情報を確認する arrow_forward