- 期間
- 2018年1月~2018年6月
- 種類
- 法的措置はしない
海から上がってくる裸の男性を表示するミュージック ビデオが、違法な性的なコンテンツとして複数回報告されました。
Network Enforcement Law(NetzDG)はドイツで 2017 年 10 月 1 日に発効しました。この法律では、NetzDG で定義された違法なコンテンツに対する効果的で透明性のある削除申し立て手続きを設けること、および透明性レポートを半年ごとに公開することをソーシャル ネットワークに対して義務付けています。ただし、欧州連合のデジタル サービス法(DSA)が優先されるため、2023 年 8 月 25 日以降、NetzDG は YouTube には適用されません。
こちらで現在もご利用いただけるレポートでは、Google の組織と手続き、申し立ての件数、削除されたコンテンツの量に関するデータを提供します。また、削除の実施とポリシーに関する一般的な情報も提供します。
ここで入手できるレポートには、これらの事柄に関する最新の情報は含まれておらず、情報が古くなっている可能性があります。
Network Enforcement Law(NetzDG)は、ドイツ国内で登録ユーザーが 200 万人を超えるソーシャル ネットワークに対し、NetzDG に照らして違法なコンテンツであるとの申し立て(以下「申し立て」または「NetzDG の申し立て」という)があった後 24 時間以内に、「明らかに違法な」コンテンツ(動画、コメントなど)を国内で削除することを必須としています。違法かどうか明らかではない場合、プロバイダは通常 7 日以内に判断します。例外として、たとえば、コンテンツをアップロードしたユーザー(YouTube に動画やコメントが保存されているユーザー)に見解を求めた場合、または自主規制機関として認定された業界団体に判断が委ねられた場合は、判断の期間を延長できます。NetzDG 第 1 条(3)で参照されているドイツ刑法(StGB)の 22 の条項のいずれかにコンテンツが該当する場合、そのコンテンツは NetzDG に基づく削除の対象となります。Google は、NetzDG 第 1 条(3)に記載されている犯罪に基づいてすべての NetzDG の申し立てを審査します。Google は、NetzDG 第 1 条(3)に従ってコンテンツが違法であると判断した場合、当該コンテンツをドイツ国内で制限します。コンテンツが Google 独自のグローバルな YouTube コミュニティ ガイドラインに明らかに違反している場合は、当該コンテンツを全世界で削除します。
極右およびヘイトクライム対策法により、NetzDG の第 1 条(3)に記載されている犯罪の内容が拡張されました。たとえば、脅迫による治安妨害罪(126 条)、犯罪の報奨および是認罪(140 条)が改正され、傷害罪(224 条)も含まれるようになりました。さらに 2022 年 2 月 1 日から、NetzDG に記載されている犯罪に StGB 第 189 条(故人の記憶に対する冒とく)が追加されました。法的条項のこうした拡張や追加は、確認が難しい漠然とした要素を増やすため、判断を誤る危険性を高めます。
また、NetzDG では、ソーシャル ネットワークに対し、半年ごとにこのような申し立ての取り扱いについてのレポート(透明性レポート)を作成、公開することも必須としています。Google は、このレポートを公開することでこの義務を果たしています。このレポートは、毎年、1~6 月と 7~12 月のレポート対象期間で更新しています。ここで入手できるデフォルトのレポートの対象は、前回のレポート対象期間ですが、過去のレポート対象期間のデータも見ることができます。レポートの現在のバージョンは、レポートの最後でダウンロードすることもできます。
現在、毎分 500 時間を超える動画がアップロードされている YouTube は、人類の文化が一堂に会する巨大な生きたコレクションであり、世界中の人々がアイデアと意見を表現し、共有できるコミュニティでもあります。YouTube は、このコミュニティ全体を保護および維持するために確定されたルールが守られるようにユーザーを導く必要があります。YouTube のコミュニティ ガイドラインでは、露骨な性表現、スパム、ヘイトスピーチ、ハラスメント、暴力行為の扇動など、特定のカテゴリのコンテンツを禁止しています。YouTube のコミュニティ ガイドラインに違反するコンテンツは、全世界で削除されるかアクセスが制限されます。YouTube は、「人間 + 自動システム」フレームワークを使用してガイドラインの適用を大幅に促進しました。詳しくは、YouTube コミュニティ ガイドラインの適用に関するレポートをご覧ください。
Google ではドイツおよび各国の法律を尊重しています。違法とされるコンテンツについて削除の申し立てを受けた場合は、個々の申し立てを慎重に審査します。Google は、現地法に違反し、違法と特定したコンテンツについては、現地でブロックします。これは、コンテンツの削除に関するその他の法的要請に対する Google の対応策と同じです。このレポートに詳細を示すように、現地法に基づきコンテンツが違法かどうかを判断することは、YouTube の審査担当者にとって非常に難しい法的判断となることがあります。
魅力的なオンライン グローバル コミュニティを構築する YouTube の取り組みは、クロスファンクショナルなチームの協力がなければ成功しません。そのようなチームのメンバーには、ポリシー スペシャリスト、弁護士、エンジニア、プロダクト マネージャー、データ アナリスト、コンテンツ審査担当者、業務アナリスト、新たな脅威のアナリストなどが含まれます。また、YouTube を世界中のユーザーとクリエイターのためのプラットフォームとするうえで、ユーザー、NGO、政府、業界のパートナー(他の技術系企業を含む)の協力も重要な役割を果たしています。
このデータには、NetzDG 第 1 条 3 項の意味の範囲内で違法とされるコンテンツに関する申し立てのみが含まれます(ただし、報告チャネルから提出された申し立ては、NetzDG に基づく審査には明らかにつながらないため、含まれません)。
この透明性レポートにおける「申し立て」は、単一の事柄を対象とします。NetzDG の申し立ての対象が複数の事柄(複数の動画やコメントなど)である場合、申し立ては 1 つの事柄につき 1 件としてカウントされます。たとえば、ある NetzDG の申し立てに 3 つの異なる動画が含まれる場合は、3 件の申し立てとしてカウントされます。つまり、報告された事柄 1 つにつき申し立てが 1 件カウントされるということです。したがって、このレポートでは、申し立てに含まれる動画 1 本またはコメント 1 件をそれぞれ 1 つの事柄としてカウントしています。下のグラフの件数はこのようにして算出されたものであり、6 か月のレポート対象期間中に報告された事柄に関連する申し立て件数のデータを示しています。
上のグラフは、レポート対象期間中に報告された件数を、報告者の種類(ユーザーと報告機関)別に示しています。このデータは報告時の自己申告に基づいています。「報告機関」を選択したユーザーが実際に報告機関に属しているかどうかは、Google では確認できません。
上のグラフは、レポート対象期間中に報告された件数を、申し立て理由別に示しています。このグラフは、報告者が報告時に指定した申し立て理由を反映しています。
下のグラフは、レポート対象期間中に NetzDG の申し立てを受けて削除またはブロックした件数を示しています。
上のグラフは、レポート対象期間中に削除またはブロックした件数を、報告者の種類(ユーザーと報告機関)別に示しています。このデータは報告時の自己申告に基づいています。「報告機関」を選択したユーザーが実際に報告機関に属しているかどうかは、Google では確認できません。
NetzDG の申し立て | 現在のレポート サイクル | 前のレポート サイクル(6 か月前) | 前のレポート サイクル(12 か月前) |
---|---|---|---|
報告された合計項目数 | 193,131 | 233,440 | 282,858 |
削除またはブロックされた合計項目数 | 30,870 | 32,150 | 50,717 |
削除またはブロックされた報告項目の割合 | 15.98% | 13.77% | 17.93% |
上の表は、NetzDG に基づいて報告された合計件数、ブロックまたは削除した合計件数、報告された件数のうちブロックまたは削除した件数の割合を、現在および直近の 2 つのレポート対象期間で比較したものです。
報告機関 | リクエストされた項目数 | 削除された項目数 |
---|---|---|
Eco | 0 | 0 |
FSM | 1 | 0 |
jugendschutz.net | 18 | 12 |
この表は、NetzDG の分野における既知の報告機関(Eco、Freiwillige Selbstkontrolle Multimedia-Diensteanbieter e.V.、Jugendschutz.net)から、ドイツの連邦刑事庁(BKA)および連邦児童青少年メディア保護センター(BzKJ)との合意に基づいて、児童への性的虐待の画像(CSAI)に法的措置を講じるようにと通知された項目の数を示しています。表内のデータは、該当するレポートに関する最初の決定内容を示しており、レポート対象期間内に報告された項目の最終的な状態を示すものではありません。
NetzDG では、事実に関する文言が問題となっている場合またはその他の事実に関する状況が関連している場合、ソーシャル ネットワークがアップロードしたユーザーに問い合わせることが許可されています。しかし、アップロードしたユーザーから相応の回答を得るには、該当の文言が虚偽とされる理由について、報告者による詳細で立証可能な申し立てが必要になります。NetzDG の法的申し立ての大半は(YouTube が明示的に詳細な情報を求めた後でも)立証されないという事実からすると、このようなケースでアップロードしたユーザーに問い合わせることに十分な根拠はありません。
刑法の事例には、複雑で、法律の専門家による特有の知識が必要になるものがあります。その場合、Google は外部機関の助言を求めることがあります。これは、外部の弁護士、NetzDG に関する件を専門とする自主規制機関のいずれかなどです。
Google は、NetzDG に照らして違法なコンテンツに関して、すべての NetzDG の申し立てを審査し、報告されたコンテンツが NetzDG に記載されている犯罪に該当するかどうかを判断します(NetzDG 第 1 条(3))。
上記の数字は、NetzDG に抵触していると判断され、レポート対象期間中に削除またはブロックされたコンテンツの数です。
このセクションのグラフは、レポート対象期間中に、NetzDG に記載されている犯罪のいずれかに該当し違法であると判断され、削除またはブロックされた件数の合計を、所要時間別に示しています。所要時間とは、申し立てを受け取ってから、報告された事柄を削除またはブロックするまでに要する時間です。
上のグラフは、以前のレポートと異なり、レポート対象期間中に NetzDG で列挙されている犯罪に該当するとして違法と判断された項目についてのみ、それらの削除またはブロックに要した時間を報告者の種類(報告機関、ユーザー)別に示しています。以前のレポート対象期間においてすべての項目の削除またはブロックに要した時間は、グラフの下のプルダウン メニューで確認できます。注: このデータは報告時の自己申告に基づいています。「報告機関」を選択したユーザーが実際に報告機関に属しているかどうかは、Google では確認できません。所要時間が 7 日を超えている場合、技術的問題があった、複雑な事案であるため外部の助言を依頼した、希少言語が使用されていたなどの理由があります。
理由 | 24 時間未満 | 48 時間未満 | 1 週間未満 | 長い |
---|---|---|---|---|
プライバシー | 88 | 3 | 19 | 2 |
名誉毀損または侮辱 | 2,240 | 149 | 52 | 30 |
有害または危険な行為 | 180 | 36 | 30 | 0 |
性的なコンテンツ | 154 | 9 | 5 | 0 |
テロリストまたは違憲コンテンツ | 590 | 43 | 31 | 0 |
悪意のある表現や政治的な過激主義 | 2,551 | 235 | 129 | 3 |
暴力 | 381 | 24 | 16 | 0 |
上のグラフは、レポート対象期間中に NetzDG に記載されている犯罪のいずれかに該当し違法であると判断された項目の削除またはブロックに要した時間を、申し立ての理由別に示しています。これらのグラフには、報告者から報告の時点で提供された理由が反映されています。なお、その理由は、削除またはブロックの実際の理由と同じであるとは限りません。
民事訴訟では、政府機関、裁判所、当事者が、情報通信企業に対してユーザーデータの引き渡しをたびたび要求します。こちらのレポートでは、政府から Google に提出された要請の件数と種類に関する情報を開示しています。
YouTube では、表現の自由、情報にアクセスする自由、機会を得る自由、参加する自由の「4 つの自由」のバランスをとって保護することに努めています。コミュニティ ガイドラインおよび / または法律の適用は、こうした自由のバランスをとって YouTube コミュニティを保護することの一環として行われます。バランスをとることは、特に表現に対する基準が異なるさまざまな社会で運営されるグローバルなプラットフォームにとって、決して簡単はありません。
YouTube はドイツのユーザー向けに、NetzDG に基づく申し立てを行うための報告フローをサービス内に設けています。このフローはわかりやすく設計されており、直接アクセスでき、いつでも利用可能です。ログインしているユーザーが NetzDG に基づく法的申し立てを送信する手続きは、問題を報告するフローに組み込まれており、各動画の下と各コメントの横(3 つの点のアイコン)から利用できます。報告者は、問題を報告するフローで [このコンテンツは Network Enforcement Law に基づいて制限されるべきだと考えます] のチェックボックスをオンにする必要があります。オンにすると、報告者が詳細情報を追加するための短い法的なウェブフォームが開きます。
YouTube は、ログインの有無を問わず、すべてのユーザーが利用できる法的な NetzDG ウェブフォームも提供しています。このウェブフォームには、YouTube のメインメニューにある NetzDG の申し立てのリンク、または YouTube インプリント(ドイツのすべてのユーザーが利用できるお問い合わせページ)から直接アクセスできます。
法律の専門家ではない一般のユーザーは、複雑な違法行為が関係する事案に直面して困惑する可能性が高く、報告を思いとどまることさえあります。一般のユーザーが法的な NetzDG の申し立てを送信する際に、StGB の関連条項を理解して引用することはまずありません。さらに、報告対象のコンテンツは、記載されている複数の違法行為に該当する可能性があります。たとえば、犯罪組織やテロ組織の新しいメンバーや支援者を募集する動画(StGB 第 129 条、第 129 条 a)には、たいていの場合、StGB 第 86 条、第 86 条 a に基づいて処罰の対象になり得る旗などのシンボルが含まれています。また、StGB 第 89 条 a に基づいて、国家を危険にさらす重大な暴力犯罪の準備行為にも該当する可能性があります。このような複雑さに対する懸念は、これまでのレポートですでに取り上げられていましたが、極右およびヘイトクライム対策法に導入された変更によっていっそう強まりました。たとえば、加害者の意図に明確な相手に対する告知が含まれる場合に、刑法第 241 条の意義の範囲内での脅迫が「第三者を介して」行われる可能性もあります。そのため、StGB 第 126 条の脅迫罪と StGB 第 241 条の脅迫罪は、特にそれぞれの犯罪に該当するコンテンツがソーシャル ネットワークで公開される場合、明確性と選択性に欠けます。
したがって、申し立てプロセスを簡素化し、NetzDG に基づいて違法と思われるコンテンツを報告しやすくするために、NetzDG 報告フローに 7 つのコンテンツ カテゴリを設けました。これらは関連する 22 の犯罪に対応し、一般的に理解しやすい方法で分類されています。このアプローチは、非常に抽象的でかなりの広範囲にわたる犯罪を(特に法律の専門家でない人にとって)わかりやすくすることにも役立っています。たとえば、StGB 第 140 条は、国家への反逆、殺人、戦争犯罪のようなその他の重大な犯罪、(少なくとも)危険な傷害罪、公衆を危険にさらす特定の犯罪、特定の重大な性犯罪など、多岐にわたる犯罪の報酬提供および是認を処罰しています。コンテンツ通知プロセスに関する Google の実績は、違法コンテンツの効果的な申し立てを送信するためのハードルの低い現実的なアプローチをユーザーが高く評価していることを明確に示しています。刑法第 140 条で参照されている刑法第 126 条の目録も拡張されました。さらに、刑法第 140 条の是認の選択肢では、問題の行為がすでに行われたか、少なくとも処罰の対象となり得る方法で試みられたかということすら不要になっています。犯罪の目録を参照する手法と犯罪の複雑な審査は、法律の専門家でない人にとっては非常に大きな負担になります。これはまさに脅威が未来に関わるという性質のためです。Google では、これまでどおり申し立てについて現実に即したハードルの低いアプローチをとることで、今後も可能な限り最善の方法で NetzDG の趣旨を違法コンテンツ対策に反映できると考えています。
Google が NetzDG 第 1 条(3)を実質的にカバーするものと考えている前述のカテゴリ(報告時に選択可能)と、それらに対応する犯罪は次のとおりです。
悪意のある表現や政治的な過激主義
テロ関連または違憲のコンテンツ
暴力
有害または危険な行為
名誉毀損または侮辱
プライバシー
性的なコンテンツ
コンテンツの報告についての長期にわたるグローバルな経験に基づき、Google は、NetzDG の法的な目的は総じてこれらのカテゴリで適切にサポートされ、達成されるものと確信しています。
Google は、上記の報告手続きを通じて NetzDG の申し立てを受け取ると、報告者は確認メールを送信します。そのメールには、参照番号に加え、Google が申し立てを受領したこと、およびその申し立てが審査の対象となることが記載されます。
Google は、NetzDG の申し立てを審査した後、NetzDG に基づく Google の判断とその理由を記載したメールを報告者に送信します。この通知には、法執行機関に刑事訴訟を提起できるという情報と、こちらのリンクから連邦司法消費者保護省のヘルプページ(hilfe-info.de)にアクセスして詳細を確認できるという情報も含まれます。YouTube が動画に関する NetzDG の申し立てに応じない場合、通知には、報告者が NetzDG に基づく判断の再審査リクエストを行うためのリンクも含まれます。
Google は、NetzDG の申し立てに応じて、NetzDG で規定されている犯罪のいずれかに該当するとしてコンテンツをブロックした場合、アップロードしたユーザーに対して、ブロックに関する情報を記載したメール通知を送信します。動画がブロックされた場合、この通知には、アップロードしたユーザーが NetzDG に基づく決定の再審査請求を送信するためのリンクも含まれます。コミュニティ ガイドラインに違反しているとして動画が削除された場合、アップロードしたユーザーには、決定に関するコミュニティ ガイドラインの審査を請求するためのリンクを含む通知が送信されます。
動画がコミュニティ ガイドラインに基づいて削除された場合、または現地法に基づいてブロックされた場合は、動画を利用できなくなった旨をユーザーに知らせる公告が動画の代わりに表示されます。
法的申し立て。Google では、上記で概説したとおり、個人が NetzDG 違反のコンテンツの報告(NetzDG の申し立て)を行うための追加の報告ツールとして、ウェブフォームを作成しました。このフォームは、YouTube のメインメニューにある [NetzDG の申し立て] リンクまたは YouTube インプリントを介して、すべてのユーザーが直接利用できます。また、ログインしているユーザーは、前述のように、ドイツの報告フローに組み込まれている NetzDG のチェックボックスをオンにすることにより、このフォームを利用できます。ユーザーは、これらの報告チャネルを通じて、不適切な事柄を指摘し、法的申し立ての理由を説明することができます。この情報は、Google が適正な審査を行って適切な措置を講じるために必要です。現地の法的削除に関して、その根拠が明らかでない場合や、正当な理由が十分にない場合は、報告者に追加情報を求めることもあります。
わかりやすく利用しやすい報告フローをコンテンツのそばに設けると、クリック数と申し立て数の増加につながります。しかし、ユーザーの報告は必ずしも信頼できません。的外れであるか根拠がないために対処できない申し立ても少なくありません。コンテンツが違法であると考える理由に関して情報を提供せずに申し立てを行うユーザーもいます。これは、そのコンテンツの違法性が明確でない場合に特に問題となります。
NetzDG の申し立てを行うメカニズムとは別に、Google では、NetzDG の何年も前から、YouTube ユーザー向けの法的なウェブフォーム(個人の権利の申し立て、著作権に関する申し立て、商標権侵害の申し立てなど)を提供しています。つまり、法的削除プロセスは NetzDG を契機に導入されたわけではなく、コミュニティ ガイドライン違反と思われるコンテンツの報告や違法と思われるコンテンツの法的申し立てを行う既存の報告メカニズムと密接に関連しています。
人間による報告。YouTube のコミュニティ ガイドラインに違反する可能性があるコンテンツについては、ログインしているユーザーが YouTube に報告できるシステムが設けられています。この報告システムは、各動画の下と各コメントの横から利用できます。ユーザーは、さまざまなコンテンツ カテゴリの中から適切なものを選び、そのコンテンツを報告する理由を指定できます。NetzDG のチェックボックスがオンになっている場合を除き、これらの報告は、YouTube のコミュニティ ガイドラインのみに基づいて審査されます。これは、法的義務とは別の自発的な自主規制システムです。また、「YouTube 公認報告者」というプログラムも作成しました。これは、複数のコンテンツを報告する堅固なプロセスと強力なツールにより、YouTube のコミュニティ ガイドラインに違反するコンテンツについて特に効果的な報告を行う組織を用意するものです。YouTube 公認報告者からの報告は、YouTube のコミュニティ ガイドラインのみに基づいて審査されます。通常、YouTube 公認報告者になるのは、報告の精度が高く、制度全体にとって有用な報告を行うことができる専門知識を持った NGO および政府機関です。YouTube 公認報告者プログラムについて詳しくは、YouTube コミュニティ ガイドラインの適用に関するレポートをご覧ください。
自動システムによる照合。YouTube の違反対策システムは、ユーザーが動画をアップロードした時点から作動し始めます。YouTube では、既知の違反コンテンツの再アップロードを阻止する技術を使用しており、その一つとしてハッシュ値(「デジタル フィンガープリント」)を利用しています。ハッシュ値は画像と動画の固有のデジタル フィンガープリントであり、これを使って、コミュニティ ガイドラインへの違反により削除された動画と完全に一致する動画の再アップロードを阻止できます。児童への性的虐待の画像(CSAI)やテロリストの勧誘動画などのコンテンツについては、業界で共有されているハッシュ値のデータベースも利用して、YouTube のシステムがアップロード時に捕捉できるコンテンツの量を増やしています。
自動システムによる報告。Google は、2017 年 6 月に、人間による審査を行うために暴力的過激主義のコンテンツを報告する機械学習技術の配備を始めました。すでに審査され、削除されている暴力的過激主義の動画のコーパスを使って、コミュニティ ガイドラインにも違反する可能性のある新しいコンテンツを報告できるように機械学習システムをトレーニングしています。人間による判断を学習させる機械学習技術を利用することで、違反対策システムは時間とともに適応し、より高度になります。こうした好ましい結果が得られていることを受けて、児童の安全やヘイトスピーチなど、他の難しいコンテンツ分野でも機械学習技術のトレーニングを開始しました。ただし、こうしたシステムは、どのようなコンテキストでも違法であると明確に定義される対象がある場合に最も効果的であることがわかっています。機械による自動化で、人間による判断や微妙な違いの判断をそのまま肩代わりできるわけではありません。詳しくは、YouTube コミュニティ ガイドラインの適用についてのレポートをご覧ください。
コミュニティ ガイドライン違反の報告。全世界で適用される YouTube のコミュニティ ガイドラインは明確で概括的なルールであり、こちらからご覧になれます。このガイドラインは、YouTube の拡大とユーザー行動の変化に合わせて、時間とともに進化してきました。ユーザーは、YouTube チャンネルを作成する前に、このガイドラインを遵守することに同意します。
Google は、YouTube コミュニティ ガイドラインへの違反が(前述の方法で)報告されたコンテンツを審査しますが、ガイドラインでは特に、ヌードと性的なコンテンツ、有害または危険なコンテンツ、ヘイト コンテンツ、暴力的または刺激の強いコンテンツ、ハラスメントとネットいじめ、脅迫、児童を危険にさらす行為を禁止しています。
YouTube では、コミュニティ ガイドラインの適用の一貫性を保証するため、現状に即した詳細な解釈ガイドラインを提供しています。たとえば、コミュニティ ガイドラインではテロリズムを助長するコンテンツを禁止しています。テロリスト グループに新しい分派が生まれると、その特定のグループに関する情報で内部的な適用ガイドラインが更新されます。したがって、審査担当者は、そのグループを宣伝するコンテンツを削除するために必要なガイダンスを参照できます。YouTube では、このような更新を必ずしも公開していません。公開すると、悪質なユーザーが発見を逃れやすくなるからです。
審査チームは、報告されたコンテンツを審査するにあたり、周辺のコンテキストを確認できます。これには、動画の説明、チャンネルにアップロードされたその他のコンテンツ、メタデータ(タイトル、タグ、字幕)などがあります。このようなコンテキスト上の手がかりは、アップロードの意図を確認するうえで重要です。さらに、審査ツールは動画が報告されたときのタイムスタンプをキャプチャします。ウェブフォームでは、報告者はそのタイムスタンプを含めることを求められます。審査担当者は、この時間を見て動画内の問題があると思われる部分に集中できます。
Google では、教育、ドキュメンタリー、科学、芸術(EDSA)のコンテンツをコミュニティ ガイドラインの例外に分類しています。これらの例外に該当する動画やコメントは、世界を理解し歴史を記録するうえで重要です。戦争や革命のドキュメンタリーも、ヌードを含む芸術的表現もこうした例外に該当します。そのため、YouTube の適用ガイドラインは、審査担当者が報告された動画を審査する際に EDSA の例外を理解できるように、特に配慮しています。しかし、かなり明確なガイドラインがあっても、どのような動画やコメントが EDSA の例外に該当するかを判断するのは、YouTube の審査担当者が行うポリシー適用の判断の中でも特に難しいものになる場合があります。
通常、審査チームは、YouTube のコミュニティ ガイドラインに違反するコンテンツは全世界で削除します。また、次のいずれかの措置をとることもあります。
不正行為の繰り返しや悪質な違反については、特定の機能を無効にするかアカウントを停止するペナルティをユーザーに課すことがあります。YouTube のコミュニティ ガイドラインに対する初回違反のほとんどのケースでは、警告が発行されます。一般的には、3 回のポリシー違反でアカウントを停止するルールを適用しますが、テロなどの悪質な違反の場合は、初回の違反でアカウントを停止することもあります。
法的申し立て。法的要請を受けたときは、その要請に含まれる情報(報告者が唱えた異議など)に基づいて審査チームが法的な審査を行います。さらに、審査チームは、報告されたコンテンツの周辺のコンテキスト(メタデータ、タイトルなど)も確認します。要請に重要な情報(たとえば、名誉毀損の申し立てを行っている人物の識別情報)が欠落している場合は、法的な審査に必要な追加情報を報告者に問い合わせます。違法と判断されたコンテンツは、現地でブロックされます。
NetzDG の申し立て。YouTube の審査プロセスでは、NetzDG の申し立てを受けると、専任の NetzDG 審査チーム(審査チームの項を参照)が、報告されたコンテンツの周辺のコンテキストを調べ、NetzDG に記載されている犯罪に照らしてコンテンツを審査します。コンテンツが明らかにコミュニティ ガイドラインに違反している場合、NetzDG 審査チームは全世界で削除します。したがって、NetzDG に基づいて報告されたコンテンツに適用される判断は 2 種類あります。つまり、YouTube のガイドラインにのみ違反している場合と、さらにドイツの法律にも違反している場合は、全世界で動画が削除される可能性があります。ガイドラインに違反していなくても、NetzDG 第 1 条(3)またはその他のドイツの法規制に照らして違法と判断された動画は、ドイツ国内でブロックされます。
申し立ての審査は概して簡単ではありません。犯罪の中には、証拠の提供を目的とするデータの偽造(StGB 第 269 条)のように、法律家にとっても判断が難しいものがあります。また、名誉毀損と侮辱のカテゴリ全体のように、過去何十年にもわたって、特にドイツ憲法の発効以降、広範囲にわたる判例が存在している分野もあります。このような事情により、名誉毀損と侮辱については、明白に違法な事例はごくわずかです。裁判所は、あるコンテンツが合法かどうかを何年もかけて審議することがありますが、それでも裁判によって異なる結論に至ります。たとえば、連邦最高裁判所の判決が連邦憲法裁判所で覆されることがあります。つまり、裁判では複雑な比較衡量基準の適用が必要であり、それぞれの事例の合法性は常に、個々の状況に応じて都度判断されることになるのです。裁判所での審理とは異なり、ソーシャル ネットワークは常にすべての必要な情報を得られるとは限りません。さらに、証拠規則を必要とする主要な手続きも定められていません。このように、コンテンツが許容されるかどうかが犯罪の特定の要素によって評価される場合は判断が非常に難しく、通常は該当する裁判所による決定が求められます。
こうした分析は、実例によっても裏付けられています。名誉毀損と侮辱のカテゴリにおける NetzDG の申し立ての多くは、当事者本人ではなく、当事者が名誉を毀損されたと感じているはずだと思い込んでいる第三者によって報告されます。実際にそのとおりかどうかや、本人が実際に該当する法執行機関に告訴しているかどうかは、報告者の身元を確認できる立場にないソーシャル ネットワークにはわかりません。なお、この種の犯罪は当事者の告訴が必要な親告罪です。
NetzDG の申し立てについて、NetzDG チームは二交代制をとって年中無休で審査しています。必要な場合は、NetzDG の期限内にコンテンツを全世界で削除するか、現地でブロックします。申し立てに明らかに根拠がない場合は、法的要件に沿って報告者に直ちに通知します(「NetzDG に基づいて報告者とアップロードしたユーザーに通知する方法」の項をご覧ください)。YouTube のコミュニティ ガイドラインまたは関連する犯罪条項への違反が明確でない場合、あるいはコンテンツが複雑であるかドイツとの関連が明確でない場合、NetzDG コンテンツ審査担当者は、審査を迅速に進めるために申し立てを次のレベルにエスカレーションし、シニア コンテンツ審査担当者が適切な措置を講じます。複雑な申し立ては YouTube Legal Team に送られます。Legal Team は、判断が難しい境界線上の事例について確信が持てない場合、Google Germany GmbH の法務部門にエスカレーションします。この部門は、特に難しい事例については、刑法を専門とする外部の法律事務所にエスカレーションします。通常、この手続きには最大で 7 日間かかります。
NetzDG チームが意図どおりに機能し、YouTube のコミュニティ ガイドラインと NetzDG に基づく犯罪条項を一貫性を持って適切に適用することを保証するため、Google は厳格な品質審査プロセスを導入しました。レポート対象期間では、前週に審査したコンテンツの平均約 30% をサンプルとして抽出しました。品質審査の件数は、受け取った申し立ての数に応じて、週ごとに異なります。このプロセスにおいて、品質審査チームは、それぞれのコンテンツ審査担当者による判断を評価して個別にフィードバックを提供し、品質審査の結果を総合的に分析します。選択された品質サンプルは、1 週間の品質データの概要の基準となります。品質審査チームは、NetzDG チーム内の別のチームであり、以前コンテンツ審査に携わり、NetzDG に記載されている犯罪に関する法規と YouTube のコミュニティ ガイドラインについて十分な経験を有するシニア チームメンバーで構成されています。YouTube Legal Team と NetzDG チームの間で毎週開かれるミーティングでは、最新の品質審査結果について話し合うだけでなく、特に興味深い困難で複雑な事例については調整も行います。さらに、顕著な傾向、現在の「注目トピック」、判例の動向も取り上げ、NetzDG チーム全体で一貫したアプローチをとることができるよう十分に議論しています。必要な場合は、YouTube のコミュニティ ガイドラインの更新や判例の動向に合わせて、削除ポリシーを改善します。このような改善を行った場合は、新しいガイダンスを(必要な場合はトレーニング資料とともに)NetzDG チームのすべてのメンバーに配布します。
NetzDG に関する決定の再審査請求: NetzDG の申し立てで報告された動画が、NetzDG に記載されている犯罪のいずれかに該当し違法であると判断された場合、アップロードしたユーザーに対して、決定の再審査請求フォームのリンクを含むメッセージが送信されます。NetzDG に記載されている犯罪に該当する違反が見つからなかったという理由で申し立てが却下された場合も、報告者に対して同様のメッセージが送信されます。
NetzDG に基づくこのような再審査請求が提出された場合は、NetzDG に記載されている犯罪に関する当初の決定に関与しなかった NetzDG チームメンバーが NetzDG に基づいて再審査を行い、当初の決定を維持するかまたは訂正します。この再審査の結果はメールで通知されます。
コミュニティ ガイドラインに関する再審査請求: YouTube は、コミュニティ ガイドライン違反の動画に対して措置を講じた場合、アップロードしたユーザーに対して措置の内容と理由を通知します。ユーザーには、説明に加えて、コンテンツの削除の詳細を確認できるリンクと、コミュニティ ガイドラインに基づくコンテンツの再評価を求める再審査請求プロセスのリンクが提供されます。YouTube では、かなり以前から、自分のコンテンツはコミュニティ ガイドラインに違反していないと考えるユーザーが再審査を請求できるようにしてきました。このプロセスについて詳しくは、こちらをご覧ください。コミュニティ ガイドラインに関する再審査請求とコンテンツの復元については、YouTube コミュニティ ガイドラインの適用に関するレポートに記載されています。詳細なデータは、こちらのウェブページからご覧になれます。
物議を醸すタイプのコンテンツはテクノロジーを利用して容易に特定できるようになりました(たとえば、画像、動画、音声から対象物とパターンを迅速かつ大量に検出できます)が、コンテキストを評価するのは人間の方が適しています。たとえば、テロリストの宣伝活動と人権運動の映像の違いや、ヘイトスピーチと挑発的なジョークの違いは、アルゴリズムでは必ずしも区別できません。ほとんどの場合、最終的な判断は人間が下す必要があります。
コミュニティ ガイドラインに関する問題の報告の審査や通知は、Google の社員および提携ベンダーとの連携のもとで、技術システムによって行われます。質の高い堅固な審査フレームワークを設けることにより、全世界のスタッフが報告されたコンテンツについて常に適切な判断を下し、判断結果について定期的にフィードバックを受け取れるように徹底しています。審査チームは複数の言語に精通した数千人のメンバーで構成されており、世界中のタイムゾーンで、24 時間年中無休で慎重に問題の報告を審査しています。チームには、ドイツ語を話すスタッフも複数所属しています。
法的な申し立てに携わるチームメンバーの中には、法律の学位を持ちドイツ語を話す法律専門の担当者もいます。こうした担当者は全員、現地法のトレーニングを受けており、Google の現地の弁護士と協議しています。Google はヨーロッパの多くの国で多数の弁護士による法務チームを擁し、必要に応じて、報告されたコンテンツの法律上の分析に関与します。現地の外部の弁護士に法的助言を求めることもあります。
NetzDG チーム。Google は、NetzDG の申し立てに対応するため、ドイツの外部サービス プロバイダに専門チーム(NetzDG チーム)を組織しました。コンテンツ審査担当者の数は、NetzDG の申し立ての数に応じて変わります。このレポート対象期間には、77 名の NetzDG チームメンバーが NetzDG の申し立てに対応しました。このチームのコンテンツ審査担当者(シニア コンテンツ審査担当者を含む)は 61 名で、5 名のチームリードが監督し、6 名の品質審査担当者と 2 名のトレーナーがサポートしました。
文化的な多様性を確保するため、審査担当者は経歴も話す言語もさまざまです。年齢も幅があり、このレポート対象期間では 21~55 歳です。NetzDG チームメンバーは全員がドイツ語を流暢に話し、大半はドイツ語を母国語としています。NetzDG チームメンバーは全員が英語も話します。さらに、トルコ語、ロシア語、スペイン語、ブルガリア語、イタリア語、日本語、セルビア語、クルド語、ウクライナ語のうち 1 つ以上の言語を話すメンバーがそれぞれ 1~30 名います。このことは、ドイツに関連する可能性があるドイツ語以外のコンテンツを審査する際に役立ちます。このレポート対象期間における NetzDG チームメンバーの 1/4(25%)は、政治学、翻訳研究、メディア学、経営管理、健康科学、生産工学、考古学、教育などの分野で学士号または修士号の学位や国家試験資格を取得しています。博士号を取得しているチームメンバーも 1 名います。チームメンバーの約 40% は、小売業の販売員、料理人、製造業 / 事務所 / 旅行業 / 出版管理の事務員、レンガ職人として実務を習得しているか、情報メディア技術、物流管理、食品技術などの分野で研鑽を積んでいます。
NetzDG チームは、NetzDG に基づく関連する刑法違反と YouTube のコミュニティ ガイドライン違反の両方の審査に関するトレーニングを、半年に 1 回以上受けています。
NetzDG チームの各メンバーは、YouTube のすべてのコミュニティ ガイドライン、手続き、技術システムに関する一般的なオンボーディング トレーニングと、NetzDG に記載されている犯罪に関する法律トレーニングを受けています。オンボーディング トレーニングに加えて、一般に、6 か月ごとに NetzDG に関する法律の再トレーニングを受けることが必須とされています。再トレーニングは、通常は、外部の弁護士、YouTube Legal Team と Google Germany GmbH の法務部門のメンバーからなるチームによって、ドイツ語で提供されます。再トレーニングのセッションは、交代勤務パターンに基づくグループの規模に応じて、複数回に分けて行われます。これにより、チームリード、品質審査担当者、トレーナーを含むすべてのチームメンバーがトレーニングを受け、具体的な疑問と議題(事前に収集されたものを含む)について討論する十分な機会を持つことができます。さらに、必要に応じて特別な法律トレーニングも実施されます。これは、Google Germany GmbH の法務部門のメンバーの協力のもとで、YouTube Legal Team によって提供されます。Google は「トレーナー養成」モデルを採用しているので、NetzDG チームの専任トレーナーがトレーニングを受け、そのトレーナーが NetzDG チームの他のメンバーのトレーニングを担当します。再トレーニングと特別な法律トレーニングのいずれにおいても、前回の半年の期間における判例の動向と傾向、新しい判例、評価が難航した申し立てのタイプが取り上げられます。たとえば、宗教上の名誉毀損、暴力的なコンテンツ、公人と政治家に対する侮辱などのテーマについて、特別な法律トレーニングが提供されます。
NetzDG チームは、コミュニティ ガイドラインに関する再トレーニングも頻繁に受けています。こうした再トレーニングでは、ヘイトスピーチや子どもの安全についての新しい動向と傾向のうち、NetzDG チームに関連するものが扱われます。さらに、武器、有害または危険ないたずらや嫌がらせ、デジタル セキュリティ、捏造コンテンツなど、特定の分野を対象とする専門的なトレーニングもあります。コミュニティ ガイドラインに基づくトレーニングは、YouTube Legal Team のメンバーとの連携のもとで、ポリシー適用担当マネージャーによって提供されます。また、NetzDG チームには、コミュニティ ガイドラインに関する週 1 回および緊急の更新情報が(チームに関連する場合に)配信されます。
NetzDG チームメンバーには、充実した福利厚生プログラムと心理学的サポートが提供されています。これには、ドイツ語を話す心理士、セラピスト、トレーナーからなる専任チームによって、定期的に(またはリクエストに応じて)行われるドイツ語のトレーニングと個人カウンセリング セッションなどがあります。チームメンバーは、サポート ホットラインを通じて 24 時間 365 日いつでもカウンセリングを受けることができます。また、心身の健康をサポートする施設も用意されており、気分転換用のスペースや、個人カウンセリング セッション専用のプライベート スペースなどがあります。これは、Google と YouTube のすべての審査チームに提供されている福利厚生プログラムと同じです。さらに、フィットネス クラブやジムの会員になる際に割引料金を利用できます。
YouTube は Google を通じて NetzDG に関する以下の団体に参加しています。
FSM と ECO はホットラインを運営しており、ユーザーは電話で報告することができます。その報告は審査のために Google の審査チームに転送されます。Google は 1 件ずつ、Google の判断に関する詳細なフィードバックをその報告ホットラインに送ります。
Google は協力関係が重要だと考えています。ヘイトスピーチや差別をなくすことを使命とする市民社会グループおよび政府と密接に協力して、現地の状況を把握し、解決策を考案します。また、Google のポリシーの適用事例をパートナーや専門家と一緒に定期的にレビューします。さらに、NGO を招いてローカルまたは全国的なワークショップを開催します。ワークショップでは、Google のポリシーとサービスの最新情報を伝え、Google サービスだけでなくセキュリティ対策の使用方法についても講習を実施し、最近の課題や重要な問題について討論します。
Google と YouTube はさまざまな取り組みやプロジェクトを通じて、オンラインのヘイトスピーチに対処し、違法コンテンツの被害者を支援しています。
Google.org の安全に関するインパクトチャレンジは、ヘイト、過激主義、子どもの安全に関する課題に取り組んでいるヨーロッパ各地の団体を支援するために 1,000 万ユーロを提供する基金であり、オンラインとオフラインの取り組みの両方を対象としています。Google は、ヨーロッパ各地の新規および既存のコミュニティ プロジェクトに資金提供することで、ヘイトや過激主義に対抗する取り組みを支援し、若者がデジタル利用の心得を確実に身につけられるようにしたいと考えています。資金を提供した団体の中には、ドイツを拠点とする HateAid と Gefangene helfen Jugendlichen e.V があります。HateAid は、資金援助を受けて、オンラインのヘイトスピーチとヘイトクライムの被害者が利用できるサポートを改善し、被害を経験したユーザーの回復力を高めて、憎悪の感情によって沈黙させられていると感じることなく再びオンラインに戻れるよう力づけることを目指しています。Gefangene helfen Jugendlichen のチームは、弱い立場にあるドイツの若者の再犯率を下げるために、専門家による支援やプログラム(刑務所の訪問、元犯罪者との議論など)を提供し、弱い立場にある若者が犯罪の実害について学べるように努めています。
Google は、長年にわたってメディア リテラシーの向上、若者とあらゆる年齢のユーザーの支援、教育現場向けのリソースによる教師の支援にも取り組んできました。Google は、問題報告の仕組みについて意識を高め、Google と YouTube のポリシー、設定、Digital Wellbeing ツールの知識をユーザーに提供することに常に努めています。
2013 年以降、Google はドイツのデジタル メディア サービス プロバイダ自主規制協会(FSM e.V.)に資金を提供し、オンラインの意見形成、ヘイトスピーチ対策、メディアの現実と虚構の区別、情報リテラシーに関する指導案を含む教材集「Medien in die Schule」の作成と発展を支援しています。
2009 年には、YouTube は現地のパートナーとともにメルケル首相の後援を得て「361 Grad Respekt」の取り組みを開始し、2009 年から 2014 年の間に複数回(2010 年からは家族大臣代理の後援を受け)実施しました。2016 年にはこの取り組みを「#NichtEgal」という名前で復活させ、2 回(2016 年と 2018 年)実施しました。こうした取り組みは、オンラインとオフライン両方での敬意ある行動の促進を目的としており、動画コンテストや学校のワークショップを通じて、若者がヘイトや差別に立ち向かうことを奨励しています。
ドイツのデジタル メディア サービス プロバイダ自主規制協会(FSM e.V.)は、Google の慈善事業部門である Google.org から資金援助を受けて、2020 年 5 月にプロジェクト「Weitklick」を立ち上げました。このプロジェクトの目的は、ブレンド型学習プラットフォームを開発し、虚偽の情報にまつわる事件と教育現場での対処法について教師を啓蒙することと、教師、学校、ジャーナリストを結びつけることです。
Google は、ドイツのアマデウ アントニオ財団、Nummer gegen Kummer、暴力防止ネットワークなど、Google の違反対策システムに貴重な専門知識をもたらしてくれる 300 以上の学術機関、政府パートナー、NGO のグローバルなネットワークに継続的に投資しています。
YouTube コミュニティ ガイドラインを適用するために、YouTube では「人間 + 自動システム」フレームワークを利用して、不適切なコンテンツを報告し、コミュニティ ガイドラインに基づいて評価できるようにしています。コミュニティ ガイドライン違反の疑いに関する報告は、YouTube の自動報告システム、YouTube 公認報告者プログラムのメンバー(NGO、政府機関、個人)、または広範な YouTube コミュニティのユーザーから寄せられます。
YouTube では、常に審査担当者とテクノロジーを組み合わせてプラットフォーム上の違反コンテンツに対処してきました。2017 年からは、審査チームによる審査の対象となるコンテンツの報告に、さらに高度な機械学習技術を活用しています。こうしたスマートな検出技術と熟練の審査担当者の組み合わせを通じて、より迅速に一貫性のあるポリシー適用を実施できるようになっています。
YouTube では自動システムにより、大量のコンテンツを審査対象として報告できるようになりました。これは、数百万もの違反動画を視聴される前に削除するために役立っています。また、YouTube は削除を迅速化するために機械学習に投資しており、リスクが高く量の少ない分野(暴力的過激主義など)や、量の多い分野(スパムなど)で成果を上げています。
YouTube コミュニティ ガイドラインの適用に関するレポートの最新の削除データについては、こちらをご覧ください。
機械学習を導入すると、実際にはコンテンツの審査を行う人数が増えます。減ることはありません。YouTube のシステムは、コンテンツがポリシーに違反しているかどうかを評価をするうえで、人間による審査に依拠しています。
ガイドラインに違反する動画が検出されると、その動画は削除され、チャンネルには違反警告が適用されます。YouTube のコミュニティ ガイドラインで禁止されているコンテンツが専ら投稿されている場合や、児童の性的搾取などの悪質な違反が 1 つでも含まれている場合は、チャンネル全体が停止されます。大多数の違反行為は、不正な行為者がスパム コンテンツまたはアダルト コンテンツをアップロードしようとする行為です。
Google がこの種のコンテンツに対して実施している対策と投資の効果について詳しくは、こちらをご覧ください。
YouTube は、クリエイターが動画へのコメントを管理できるツールも提供しています。たとえば、すべてのコメントを審査対象として保留したり、リンクが含まれるコメントや、不適切なコンテンツが含まれている可能性のあるコメントを自動的に保留したりできます。現在、100 万人以上のクリエイターがこうしたツールを使用して、チャンネルのコメントを管理しています。
YouTube の利用規約は明確に構成されています。特に「お客様のコンテンツと行動」の章では、プラットフォームでどのようなコンテンツと行動が禁止されているかについて、ユーザー フレンドリーな表現で説明しています。利用規約には、YouTube の利用は、利用規約、YouTube コミュニティ ガイドライン、YouTube のポリシー、安全と著作権に関するポリシー(以下、「契約」と総称)によって制限される旨が明記されています。利用規約に基づき、本契約または法律に違反するコンテンツは投稿できません。本契約に盛り込まれたコミュニティ ガイドラインの構成は明確かつ包括的であり、スパムおよび欺瞞行為、デリケートなコンテンツ、暴力的または危険なコンテンツ、規制対象の商品、誤った情報という 5 つの分野をカバーしています。各分野は、さらにそれぞれのポリシーを含むセクションに細分化されています。各ポリシーは、YouTube で許可されていないコンテンツとその理由に関する一般的な説明から始まります。「ポリシーによる影響」という見出しの項目では、プラットフォーム上でのユーザーの行動に対してそのポリシーが具体的にどのように影響するかが示されています。通常はその後に「例」のサブセクションが続き、そのポリシーに基づいて YouTube で許可されていないコンテンツの具体例が列挙されています。最後に、「このポリシーに違反するコンテンツへの措置」という項目で、違反した場合に起こり得る結果が示されています。このように、各条文では、YouTube でどのようなコンテンツの配信が許容されるかがユーザー フレンドリーなデザインと表現で規定されています。許容されない行為の詳細な説明と具体例も示されています。条文は見つけやすく、明確かつ包括的に表現されているため、BGB 第 307 条 1 項、第 308 条、第 309 条の要件を満たしています。ガイドラインの条文は、客観的で検証可能な基準に基づいているため、関連する判例法の基準を満たしています。さらに、利用規約またはコミュニティ ガイドラインへの違反を通知する方法と、意見または再審査請求を提出する方法と場所が詳細に説明されています。
各レポート期間で、NetzDG の対象範囲の広さと削除するように依頼されるコンテンツの種類の実態を表すために、Google は違法とされるコンテンツに関して行った判断のうち適切な例を収集します。
海から上がってくる裸の男性を表示するミュージック ビデオが、違法な性的なコンテンツとして複数回報告されました。
イスラム教徒がドイツに属するかどうかについてのアンゲラ メルケルの演説が、悪意のある表現およびテロリストのコンテンツとして報告されました。報告者によれば、メルケルはドイツを危険にさらし、破滅に導くというのが理由です。
ヤン ベーマーマンが極右グループを批判的で風刺的な話し合いの話題にしている動画に対して、悪意のある表現、暴力、スパム、名誉毀損、および侮辱とする複数の報告が届きました。
「家で抱き合う」ことを称賛するコメントが、「有害または危険な行為」として報告されました。
ドイツ人のイスラム教の「悪意のある説教師」と知られる人が動画の中で「ドゥア」(祈り)と「タワーフ」(巡回)を行うように呼びかける動画です。「タクビール」(アッラーを称える言葉)がコミュニティから聞こえます。この動画は、NetzDG に基づき、テロリストのコンテンツとして複数回報告されました。ダーワ活動も純粋な宣伝活動以外の解釈が可能としています。宣伝活動は動画では識別できず、外部の弁護士は合法と断定しました。
Google はドイツの Network Enforcement Law に基づいて、このレポートに含まれる削除、ポリシー、手続きに関する情報を提供します。
YouTube の報告アーカイブ arrow_forward