- Période
- janv. 2018 – juin 2018
- Type
- Non recevable légalement
Un clip musical montrant un homme nu sortant de l'eau a été signalé à plusieurs reprises comme contenu à caractère sexuel illégal.
En vigueur depuis le 1ᵉʳ octobre 2017 en Allemagne, la loi NetzDG exige une procédure efficace et transparente de gestion des réclamations liées aux suppressions concernant des contenus illégaux tels que définis dans cette loi, ainsi que l'obligation pour les réseaux sociaux de publier un rapport "Transparence des informations" chaque semestre. Toutefois, en raison de la primauté du règlement sur les services numériques (DSA) de l'Union européenne, la loi NetzDG ne s'applique plus à YouTube depuis le 25 août 2023.
Les rapports toujours disponibles ici fournissent des informations sur notre organisation et nos procédures, de même que sur le nombre de réclamations et de contenus supprimés. Ils contiennent également des informations générales sur les règles et les mesures de suppression.
Veuillez noter que les rapports disponibles ici ne contiennent pas d'informations à jour à ce sujet et peuvent être obsolètes.
La loi NetzDG exige que les réseaux sociaux qui comptent plus de deux millions d'utilisateurs inscrits en Allemagne retirent localement tout contenu (vidéo ou commentaire, par exemple) "manifestement illégal" dans les 24 heures suivant une réclamation portant sur un contenu illégal en vertu de la loi NetzDG (ci-après "réclamation" ou "réclamation en vertu de la loi NetzDG"). Si l'illégalité du contenu n'est pas manifeste, le fournisseur dispose de sept jours pour prendre une décision. Dans certains cas exceptionnels, ce délai peut être plus long si les utilisateurs ayant mis en ligne les contenus (utilisateurs dont les vidéos ou commentaires sont enregistrés sur YouTube, "utilisateurs mettant en ligne les contenus") sont invités à s'expliquer ou si la décision est laissée à la discrétion d'un organisme conjoint du secteur, accrédité en tant qu'institution d'autorégulation réglementée. Pour justifier une suppression en vertu de la loi NetzDG, le contenu doit relever de l'une des 22 dispositions du Code pénal allemand visées à l'article 1 (3) de la loi NetzDG. Nous examinons toutes les réclamations adressées en vertu de la loi NetzDG lorsqu'elles relèvent des délits visés à l'article 1 (3) de la loi NetzDG. Si nous constatons que le contenu est illégal conformément à l'article 1 (3) de la loi NetzDG, nous en limitons l'accès localement. Si le contenu enfreint clairement le Règlement de la communauté YouTube, dont la portée est internationale, nous le supprimons dans le monde entier.
La liste des délits figurant dans l'article 1 (3) de la loi NetzDG a été complétée par la loi visant à lutter contre l'extrémisme de droite et les crimes de haine. Par exemple, l'infraction consistant à troubler la paix publique en menaçant de commettre des délits (article 126) et le délit de rétribution et d'approbation de délits (article 140) ont été amendés pour inclure désormais les délits consistant à causer des lésions corporelles dangereuses (article 224). De plus, l'article 189 du Code pénal allemand (atteinte à la mémoire des morts) a été ajouté aux délits visés par la loi NetzDG le 1er février 2022. Ces extensions et ajouts introduisent de nouveaux termes juridiques mal définis dans les vérifications à effectuer, ce qui augmente le risque de décisions erronées.
La loi NetzDG exige également que les réseaux sociaux créent et publient chaque semestre un rapport sur le traitement de ces réclamations (Transparence des informations). Nous nous conformons à cette obligation en publiant ce rapport. Nous mettons à jour ce rapport pour les périodes de référence allant de janvier à juin et de juillet à décembre de chaque année. Le rapport par défaut disponible ici couvre la période de référence précédente, mais les utilisateurs peuvent également consulter les données des périodes de référence antérieures. La version actuelle du rapport est également disponible en téléchargement à la fin du rapport.
Avec plus de 500 heures de vidéo mises en ligne chaque minute, YouTube est une vitrine de la culture humaine et l'une des plus grandes collections de vidéos jamais réunies à un même endroit : une communauté où les gens du monde entier peuvent créer des contenus et partager leurs idées et opinions. YouTube doit aussi veiller à ce que ses utilisateurs respectent les règles qui servent à protéger toute la communauté et à pourvoir à ses besoins. Dans cette optique, le règlement de la communauté interdit certaines catégories de contenus, comme les contenus à caractère sexuel explicites, le spam, le harcèlement et l'incitation à la haine ou à la violence. Si un contenu enfreint ce règlement, nous le supprimons ou nous en limitons l'accès à l'échelle mondiale. Grâce à une approche "humain + machine", YouTube a enregistré de nets progrès dans l'application de son règlement. Pour en savoir plus, consultez le Rapport sur l'application du règlement de la communauté YouTube.
Nous respectons les lois allemandes et autres lois locales. Lorsque nous recevons une réclamation pour supprimer un contenu supposé illégal, nous l'examinons avec la plus grande attention. Si nous constatons que ce contenu ne respecte pas la loi locale, nous le bloquons localement. Nous employons la même approche avec n'importe quelle autre demande légale de suppression. Comme indiqué dans ce rapport, l'une des tâches les plus difficiles pour les examinateurs YouTube consiste à déterminer si un contenu est illégal en vertu des lois locales.
Les efforts de YouTube pour bâtir une communauté en ligne internationale attrayante ne peuvent porter leurs fruits sans l'aide d'une équipe pluridisciplinaire composée de spécialistes du règlement, d'avocats, d'ingénieurs, de responsables produit, d'examinateurs de contenus, d'analystes de données, des opérations ou des menaces émergentes, et de bien d'autres personnes. En outre, les informations fournies par la communauté mondiale d'utilisateurs, les ONG, les gouvernements et les partenaires du secteur, y compris d'autres entreprises technologiques, jouent un rôle essentiel pour faire de YouTube une plate-forme opérationnelle pour les utilisateurs et les créateurs du monde entier.
Ces données n'incluent que les réclamations pour des contenus présumés illégaux au sens de l'article 1 (3) de la loi NetzDG (mais pas celles reçues via des canaux de signalement qui ne conduisent manifestement pas à une évaluation selon la loi NetzDG).
Le terme "réclamation" utilisé dans ce rapport "Transparence des informations" renvoie à des éléments individuels. Si une réclamation en vertu de la loi NetzDG porte sur plusieurs éléments (des vidéos ou commentaires, par exemple), nous comptons une réclamation par élément. Par exemple, si nous recevons une réclamation en vertu de la loi NetzDG portant sur trois vidéos distinctes, nous comptons trois réclamations (une par élément signalé). Dans ce rapport, chaque réclamation sur une vidéo ou un commentaire est ainsi comptée comme un seul élément. Les graphiques ci-après, marqués comme éléments, fournissent des données sur le nombre de réclamations qui ont été déposées au cours de la période de référence de six mois.
Le graphique ci-dessus présente le nombre d'éléments qui nous ont été signalés durant la période de référence, en fonction du type de demandeur (utilisateurs et agences à l'origine du signalement). Ces données reposent sur ce qu'a indiqué le demandeur en s'identifiant au moment du signalement. Toutefois, nous ne sommes pas en mesure de vérifier si une entité qui indique être l'agence à l'origine du signalement l'est effectivement ou pas.
Le graphique ci-dessus correspond au nombre total d'éléments qui nous ont été signalés durant la période de référence, en fonction du motif de la réclamation. Il indique le motif de la réclamation fourni par le demandeur au moment du signalement.
Les graphiques ci-dessous présentent le nombre d'éléments supprimés ou bloqués à la suite d'une réclamation en vertu de la loi NetzDG au cours de la période de référence.
Le graphique ci-dessus présente le nombre d'éléments supprimés ou bloqués durant la période de référence, en fonction du type de demandeur (utilisateurs et agences à l'origine du signalement). Ces données reposent sur ce qu'a indiqué le demandeur en s'identifiant au moment du signalement. Toutefois, nous ne sommes pas en mesure de vérifier si une entité qui indique être l'agence à l'origine du signalement l'est effectivement ou pas.
Réclamations NetzDG | Cycle de rapports actuel | Cycle de rapports précédent (il y a 6 mois) | Cycle de rapports précédent (il y a 12 mois) |
---|---|---|---|
Nombre total d'éléments signalés | 193 131 | 233 440 | 282 858 |
Nombre total d'éléments supprimés/bloqués | 30 870 | 32 150 | 50 717 |
Pourcentage d'éléments signalés supprimés/bloqués | 15,98 % | 13,77 % | 17,93 % |
Le tableau ci-dessus compare le nombre total d'éléments signalés en vertu de la NetzDG, le nombre total d'éléments bloqués ou supprimés, ainsi que le pourcentage d'éléments signalés qui ont été bloqués ou supprimés pour cette période de référence et les deux précédentes.
Agence | Éléments signalés | Éléments supprimés |
---|---|---|
Eco | 0 | 0 |
FSM | 1 | 0 |
jugendschutz.net | 18 | 12 |
Ce tableau présente le nombre d'éléments qui nous ont été transmis par les agences de signalement suivantes que nous connaissons dans le cadre de la loi NetzDG et qui disposent d'un mandat légal pour traiter les images d'abus sexuels sur des mineurs/enfants en vertu des accords conclus avec l'Office fédéral de police criminelle (BKA) et l'Agence fédérale pour la protection des enfants et des adolescents dans les médias (BzKJ) : Eco, FSM (Freiwillige Selbstkontrolle Multimedia-Diensteanbieter e.V.) et Jugendschutz.net. Les données du tableau indiquent la première décision associée à un rapport donné. Ces données n'affichent pas l'état final d'un élément signalé pendant la période de référence.
La loi NetzDG permet aux réseaux sociaux de contacter l'utilisateur ayant mis en ligne le contenu afin de vérifier des propos ou toute autre circonstance factuelle applicable. Cependant, pour obtenir une réponse raisonnable de la part de l'utilisateur, le demandeur doit déposer une réclamation dûment étayée indiquant les raisons pour lesquelles il met en doute la véracité des propos. Comme la majorité des réclamations se référant à la loi NetzDG ne sont pas argumentées (même après que YouTube a demandé explicitement un complément d'information), il n'y a pas de raison suffisante de contacter l'utilisateur dans ces cas précis.
Certains cas complexes relevant du droit pénal exigent des connaissances juridiques spécifiques. Dans ce type de situation, nous sommes susceptibles de demander un avis extérieur auprès d'un conseiller juridique ou d'une des institutions d'autorégulation spécialisées dans les questions liées à la loi NetzDG.
Nous examinons toutes les réclamations en vertu de la loi NetzDG pour déterminer si un contenu signalé relève d'un des délits figurant dans l'article 1 (3) de la loi NetzDG.
Le nombre ci-dessus correspond au nombre d'éléments supprimés ou bloqués au cours de la période de référence que nous avons identifiés comme illégaux, car relevant des délits visés par la loi NetzDG.
Les graphiques de cette section présentent le nombre total d'éléments que nous avons supprimés ou bloqués, et qui ont été identifiés comme illégaux, car relevant des crimes visés par la loi NetzDG au cours de la période de référence, en fonction du délai de traitement. Le délai de traitement désigne la période entre la réception d'une réclamation et la suppression ou le blocage des éléments signalés.
Le graphique ci-dessus, contrairement aux précédents rapports, indique seulement le délai de réponse pour les éléments supprimés ou bloqués, et identifiés comme illégaux en vertu de l'un des délits listés dans la loi NetzDG au cours de la période de référence par le type de demandeur (agences et utilisateurs à l'origine du signalement). Le menu déroulant situé sous le graphique indique le délai de traitement pour tous les éléments supprimés ou bloqués au cours des périodes de référence précédentes. Remarque : Ces données reposent sur ce qu'a indiqué le demandeur en s'identifiant au moment du signalement. Toutefois, nous ne sommes pas en mesure de vérifier si une entité qui indique être l'agence à l'origine du signalement l'est effectivement ou pas. Notez également que certains cas peuvent dépasser sept jours en raison de problèmes techniques, de l'utilisation d'une langue rare ou de leur complexité nécessitant des conseils externes.
Motif | Moins de 24 heures | Moins de 48 heures | Moins d'une semaine | Plus longtemps |
---|---|---|---|---|
Confidentialité | 88 | 3 | 19 | 2 |
Diffamation ou insultes | 2 240 | 149 | 52 | 30 |
Actes dangereux ou nuisibles | 180 | 36 | 30 | 0 |
Contenu à caractère sexuel | 154 | 9 | 5 | 0 |
Contenu terroriste ou anticonstitutionnel | 590 | 43 | 31 | 0 |
Incitation à la haine ou extrémisme politique | 2 551 | 235 | 129 | 3 |
Violence | 381 | 24 | 16 | 0 |
Les graphiques ci-dessus présentent le délai de traitement des éléments supprimés ou bloqués, et que nous avons identifiés comme illégaux, car relevant des délits visés par la loi NetzDG au cours de la période de référence, par motif de réclamation. Ils renseignent le motif fourni par le demandeur au moment du signalement, lequel peut être différent du motif réel de suppression ou de blocage.
Les autorités administratives, les tribunaux et les parties de procès civils demandent régulièrement aux entreprises du secteur de la technologie et des communications d'indiquer comment une personne utilise leurs services. Dans ce rapport, nous divulguons des informations sur le nombre et le type de demandes que nous recevons des autorités administratives.
YouTube cherche à trouver un parfait équilibre en préservant quatre libertés de sa communauté : la liberté d'expression, la liberté d'information, la liberté d'opportunité et la liberté d'appartenance. Même si l'application du règlement de la communauté et/ou de la loi y contribue, trouver cet équilibre n'est jamais facile, surtout pour une plate-forme mondiale évoluant dans des sociétés où les normes concernant la liberté d'expression sont différentes.
Pour les utilisateurs en Allemagne qui souhaitent déposer une réclamation dans le cadre de la loi NetzGD, YouTube propose une fonctionnalité de signalement intégrée, identifiable facilement, accessible directement et disponible en permanence. La procédure qui permet aux utilisateurs connectés de déposer une réclamation d'ordre juridique en vertu de la loi NetzDG est intégrée à cette fonctionnalité accessible sous chaque vidéo et à côté de chaque commentaire (représentée par trois points). Le demandeur doit cocher la case "Je pense que ce contenu doit être soumis à des restrictions conformément à la loi NetzDG" pour ouvrir un court formulaire Web juridique dans lequel il peut ensuite ajouter des informations complémentaires.
YouTube propose aussi aux utilisateurs connectés ou non un formulaire Web juridique NetzDG, disponible directement via le lien Réclamations NetzDG dans le menu principal de YouTube, ainsi que sur la page Marque d'éditeur de YouTube (une page de contact accessible à tous les utilisateurs en Allemagne).
Un non-spécialiste du droit sera probablement découragé lorsqu'il sera confronté à un catalogue exhaustif d'infractions complexes, voire dissuadé d'effectuer tout signalement. Il est aussi peu probable qu'il comprenne et cite les dispositions applicables du Code pénal allemand lorsqu'il dépose une réclamation d'ordre juridique en vertu de la loi NetzDG. En outre, certains contenus signalés peuvent relever de plusieurs des infractions énumérées. Par exemple, une vidéo qui vise à recruter de nouveaux membres ou sympathisants pour une organisation criminelle ou terroriste (art. 129, 129a du Code pénal allemand) contient aussi généralement des symboles tels que des drapeaux, ce qui peut être puni en vertu des articles 86 et 86a du même code pénal. La même vidéo peut également être assimilée à la préparation d'un acte violent grave mettant en danger la sécurité de l'État, ce qui constitue une infraction en vertu de l'article 89a du code pénal. Déjà soulignées dans de précédents rapports, ces préoccupations se sont nettement amplifiées avec les changements introduits par la loi visant à lutter contre l'extrémisme de droite et les crimes de haine. Par exemple, une menace au sens de l'article 241 du Code pénal peut aussi être proférée "via des tiers" si la divulgation au destinataire était voulue par l'auteur. Les crimes caractérisés par des menaces (articles 126 et 241 du Code pénal allemand) manquent donc de précision et de clarté, en particulier pour des contenus publiés sur les réseaux sociaux.
Aussi, afin de faciliter la procédure et d'aider les demandeurs à adresser une réclamation concernant un contenu qu'ils jugent illégal en vertu de la loi NetzDG, nous avons créé sept catégories de contenus dans notre procédure de signalement dédiée, qui reflètent et classent les 22 crimes applicables d'une manière compréhensible pour le grand public. Cette approche permet également de rendre plus tangibles les infractions très abstraites avec un champ d'application très large (en particulier pour les non-spécialistes du droit). Par exemple, l'article 140 du Code pénal allemand sanctionne toute personne qui incite autrui à commettre des infractions ou qui les approuve. Ces infractions peuvent prendre différentes formes telles que la trahison et le meurtre, ainsi que d'autres crimes graves, comme les crimes de guerre, les blessures corporelles dangereuses (ou plus graves), ainsi que certaines infractions mettant en danger le public, certains crimes sexuels graves, etc. D'après notre expérience, les utilisateurs souhaitant signaler des contenus illégaux apprécient une approche plus concrète, plus accessible et plus efficace. Le catalogue de l'article 126 du Code pénal visé à l'article 140 du Code pénal a également fait l'objet d'ajouts. De plus, l'infraction constituée par l'approbation d'actes illégaux décrite à l'article 140 du Code pénal ne couvre plus seulement les actes commis ou manifestement tentés, mais aussi les actes n'ayant pas encore eu lieu. La technique consistant à renvoyer l'utilisateur à des catalogues d'infractions et à des descriptions de délits imbriquées les unes dans les autres est particulièrement peu adaptée aux non-spécialistes du droit, surtout lorsqu'il s'agit de risques anticipés. L'approche accessible et concrète adoptée jusqu'à présent permettra vraisemblablement de continuer à prendre en compte les objectifs de la loi NetzDG de la meilleure façon possible.
Les catégories que nous avons créées pour recouper et signaler les crimes décrits par la loi NetzDG (article 1, 3) sont :
Incitation à la haine ou extrémisme politique
Contenu terroriste ou anticonstitutionnel
Violence
Actes dangereux ou nuisibles
Diffamation ou insulte
Vie privée
Contenu à caractère sexuel
Forts de notre longue expérience internationale en termes de signalement de contenu, nous sommes convaincus que l'objectif juridique de la loi NetzDG dans son ensemble est mieux soutenu et réalisé en utilisant ces catégories.
Lorsque nous recevons une réclamation en vertu de la loi NetzDG au moyen des procédures de signalement décrites ci-dessus, l'auteur de la réclamation reçoit un e-mail de confirmation contenant un numéro de référence et l'informant que nous avons bien reçu sa réclamation et que nous allons l'examiner.
Lorsque nous examinons une réclamation en vertu de la loi NetzDG, nous envoyons à son auteur un e-mail contenant des informations sur notre décision et les raisons qui y ont abouti. Cette notification contient également des informations indiquant qu'une plainte pénale peut être déposée auprès des autorités chargées de l'application de la loi et que d'autres informations sont disponibles sur cette page d'aide, une page du ministère fédéral de la Justice et de la Protection des consommateurs, à l'adresse hilfe-info.de. Si YouTube ne donne pas suite à une réclamation en vertu de la loi NetzDG concernant une vidéo, la notification contient également un lien par lequel le demandeur peut envoyer une demande de réexamen de la décision en vertu de la loi NetzDG.
Si, en réponse à une réclamation en vertu de la loi NetzDG, nous bloquons du contenu relevant de l'une des infractions visées par la loi NetzDG, nous enverrons une notification par e-mail à l'utilisateur ayant mis en ligne le contenu concerné pour lui transmettre des informations sur le blocage. Si une vidéo a été bloquée, cette notification contient aussi un lien qui permet à l'utilisateur ayant mis en ligne cette vidéo de soumettre une demande de réexamen de cette décision en vertu de la loi NetzDG. Si une vidéo a été supprimée pour non-respect du règlement de la communauté, l'utilisateur qui l'a mise en ligne reçoit une notification contenant un lien pour demander un réexamen de cette décision.
Lorsqu'une vidéo est supprimée pour un motif lié au règlement de la communauté ou bloquée en raison de la législation locale, nous affichons un avis public à sa place pour informer les utilisateurs qu'elle n'est plus disponible.
Réclamations d'ordre juridique : comme indiqué ci-dessus, nous avons créé des outils supplémentaires afin que les utilisateurs puissent signaler un contenu présumé non conforme aux dispositions auxquelles se réfère la loi NetzDG (réclamations NetzDG) : par exemple, un formulaire Web auquel tous les utilisateurs peuvent accéder directement en cliquant sur le lien Réclamations NetzDG dans le menu principal de YouTube, en accédant à la page de la marque d'éditeur de YouTube ou, pour les utilisateurs connectés, en cochant la case NetzDG intégrée à la fonctionnalité allemande de signalement (voir précédemment). Ces canaux de signalement permettent aux utilisateurs d'identifier l'élément répréhensible et de motiver la réclamation d'ordre juridique. Ces informations nous sont nécessaires pour procéder à un examen approfondi et prendre ensuite les mesures appropriées. Si le motif n'est pas clair, ou si les justifications sont insuffisantes pour supprimer légalement le contenu au niveau local, nous pouvons contacter le demandeur pour qu'il nous fournisse des informations complémentaires.
Le fait de proposer une fonctionnalité de signalement intuitive et accessible facilement à proximité du contenu suscite davantage de clics et de réclamations. Toutefois, les signalements des utilisateurs ne sont pas toujours fiables. Bon nombre des réclamations sont hors sujet ou non fondées, et ne peuvent donc pas faire l'objet d'une mesure particulière. D'autres utilisateurs font, quant à eux, des réclamations sans préciser pourquoi le contenu concerné leur semble illégal. C'est d'autant plus problématique si l'illégalité du contenu n'est pas évidente à première vue.
Outre les procédures permettant de déposer des réclamations en vertu de la loi NetzDG, nous fournissons aux utilisateurs de YouTube des formulaires Web juridiques (par exemple, pour les réclamations pour atteinte aux droits de la personnalité ou aux droits d'auteur, ou les réclamations relatives à des marques) depuis de nombreuses années, bien avant la loi NetzDG. La procédure de suppression pour motif juridique n'est donc pas née de la loi NetzDG. Elle permet simplement de mieux relier les systèmes déjà en place pour signaler les cas présumés de non-respect du règlement de la communauté et la présence de contenu présumé illégal.
Signalement manuel : nous disposons d'un système de signalement qui permet aux utilisateurs connectés de nous alerter lorsqu'un contenu est susceptible de ne pas respecter le règlement de la communauté. Une fonctionnalité dédiée est ainsi accessible sous chaque vidéo et à côté de chaque commentaire. Plusieurs catégories de contenus sont proposées à l'utilisateur pour indiquer le motif du signalement. Si la case NetzDG n'est pas cochée, le signalement est évalué uniquement en fonction du règlement de la communauté. Ce système d'autorégulation sur une base volontaire existe indépendamment de toute obligation légale. Nous avons aussi développé le programme "Trusted Flagger" pour permettre aux organisations qui nous signalent avec efficacité des contenus enfreignant le règlement de la communauté d'envoyer plusieurs contenus à l'aide de processus et d'outils efficaces. Les signalements des Trusted Flaggers sont évalués uniquement en fonction du règlement de la communauté. Ces Trusted Flaggers sont des ONG, des autorités administratives et des individus reconnus généralement pour leur grande précision, qui possèdent une expertise dans le domaine concerné, ce qui rend leurs signalements très utiles pour l'ensemble du système. Des informations détaillées sur ce programme sont disponibles dans le Rapport sur l'application du règlement de la communauté YouTube.
Correspondance automatique : le système d'application du règlement de YouTube fonctionne dès l'instant où un utilisateur met en ligne une vidéo. YouTube s'appuie sur la technologie pour empêcher la remise en ligne de contenus non conformes connus, à l'aide de hachages (ou "empreintes numériques") entre autres. Ces hachages sont des empreintes numériques uniques d'images et de vidéos, qui nous permettent d'empêcher la remise en ligne de correspondances exactes par rapport à des vidéos supprimées pour non-respect du règlement de la communauté. Pour certains contenus, tels que les images d'abus sexuels sur mineurs et les vidéos de recrutement de terroristes, YouTube utilise aussi une base de données partagée de hachages afin que nos machines puissent détecter davantage de contenus lors de la mise en ligne.
Signalement automatique : en juin 2017, nous avons commencé à déployer une technologie de machine learning (ou "apprentissage automatique") pour signaler les contenus extrémistes violents afin de les faire examiner manuellement. YouTube s'appuie sur la globalité des vidéos déjà examinées et supprimées pour extrémisme violent pour entraîner cette technologie à signaler les nouveaux contenus susceptibles de ne pas respecter le règlement de la communauté. Grâce à notre technologie de machine learning soutenue par des décisions humaines, les systèmes d'application du règlement s'adaptent et deviennent plus intelligents avec le temps. En raison des bons résultats constatés, nous avons commencé à entraîner cette technologie avec des contenus en rapport avec d'autres domaines épineux, tels que la sécurité des enfants et l'incitation à la haine. Toutefois, nous observons que ces systèmes sont plus efficaces lorsque le contenu non conforme est clairement défini, quel que soit le contexte. Autrement dit, l'automatisation ne peut tout simplement pas remplacer le jugement humain et la capacité à apporter des nuances. Pour en savoir plus, consultez le Rapport sur l'application du règlement de la communauté YouTube.
Signalement en fonction du règlement de la communauté : le règlement de la communauté YouTube applicable à l'échelle mondiale est clair et détaillé. Pour le consulter, cliquez ici. Il a évolué à mesure que YouTube s'est développé et que le comportement des utilisateurs a changé. Ces derniers sont tenus de l'accepter avant d'ouvrir une chaîne YouTube.
Nous examinons les éléments qui ont été signalés (comme indiqué ci-dessus) par rapport à l'ensemble des points du règlement de la communauté. Ce règlement interdit, en particulier, les contenus suivants : nudité ou contenus à caractère sexuel, contenus nuisibles ou dangereux, contenus incitant à la haine, contenus violents ou explicites, harcèlement ou cyberharcèlement, menaces et mise en danger d'enfants.
YouTube garantit l'application systématique du règlement de la communauté grâce à des consignes d'interprétation plus précises et plus concrètes. Par exemple, le règlement de la communauté interdit les contenus faisant l'apologie du terrorisme. Si un groupe terroriste forme une nouvelle entité, des informations sur celle-ci peuvent être ajoutées aux consignes d'application internes. Les examinateurs disposent ainsi des renseignements nécessaires pour supprimer le contenu faisant l'apologie de ce nouveau groupe. YouTube ne divulgue pas toujours les modifications de ce type auprès du grand public, car cela pourrait aider les utilisateurs malhonnêtes à échapper à nos systèmes de détection.
Les équipes d'examinateurs peuvent voir en contexte le contenu signalé, y compris la description de la vidéo, les autres contenus diffusés sur la chaîne ainsi que les métadonnées (titres, balises ou légendes). Ces informations contextuelles sont importantes pour déterminer l'objectif du contenu. En outre, notre outil d'évaluation enregistre la date et l'heure auxquelles une vidéo a été signalée. De même, les demandeurs doivent inclure les codes temporels dans notre formulaire Web. Les examinateurs peuvent ainsi se concentrer sur les moments potentiellement problématiques d'une vidéo.
Nous avons inclus des exceptions au règlement de la communauté pour les contenus à visée pédagogique, documentaire, scientifique et/ou artistique. Les vidéos et les commentaires qui relèvent de ces exceptions sont essentiels pour comprendre le monde et rapporter en détail des faits historiques, qu'il s'agisse de documenter des guerres et des révolutions, ou d'une expression artistique pouvant contenir de la nudité. Pour ces différentes raisons, les consignes d'application du règlement YouTube s'efforcent d'aider les examinateurs à comprendre ces exceptions lorsqu'ils évaluent les vidéos signalées. Toutefois, même si ces consignes sont claires, l'une des tâches les plus difficiles pour les examinateurs YouTube consiste à déterminer quelles vidéos et quels commentaires sont sujets à de telles exceptions.
En règle générale, nos équipes d'examinateurs suppriment à l'échelle mondiale le contenu non conforme au règlement de la communauté. En outre, elles peuvent prendre l'une de ces mesures alternatives :
En cas d'abus répétés ou d'infractions plus flagrantes, nous pouvons sanctionner l'utilisateur en désactivant certaines fonctionnalités ou en clôturant son compte. Le plus souvent, nous adressons une mise en garde après la première infraction au règlement de la communauté. Nous appliquons ensuite une règle générale reposant sur trois avertissements selon laquelle un compte sera clos après trois infractions à ce règlement. Toutefois, nous pouvons aussi clôturer un compte dès la première infraction si celle-ci est flagrante et volontairement nuisible.
Réclamations d'ordre juridique : lorsque nous recevons une réquisition judiciaire, nos équipes d'examinateurs procèdent à un examen juridique en fonction des informations dans la demande, y compris l'objection soulevée par le demandeur. Par ailleurs, les examinateurs prennent en compte le contexte du contenu signalé (par exemple, les métadonnées et le titre). Si une demande ne contient pas certaines informations importantes (comme l'identité d'une personne dans une réclamation pour diffamation), l'équipe contacte le demandeur afin d'obtenir un complément d'information nécessaire pour évaluer la situation sur le plan juridique. Si nous constatons que le contenu est effectivement illégal, nous le bloquons localement.
Réclamations en vertu de la loi NetzDG : dans le cadre de notre processus d'évaluation, lorsque nous recevons une demande se référant à la loi NetzDG, notre équipe d'examinateurs de contenus spécialisés dans cette loi (voir la section "Équipes d'examinateurs") analyse le contenu concerné dans son contexte afin de vérifier si des crimes visés par la loi NetzDG ont été commis. Si le contenu enfreint clairement le règlement de la communauté, l'équipe d'examinateurs NetzDG le supprime à l'échelle mondiale. Par conséquent, nous pouvons appliquer deux décisions au contenu signalé en lien avec la loi NetzDG. Un tel signalement peut entraîner la suppression intégrale de vidéos si celles-ci ne respectent pas notre règlement, qu'elles enfreignent ou non la législation allemande. Si la vidéo n'enfreint pas notre règlement, mais que nous la jugeons illégale en vertu de l'article 1 (3) de la loi NetzDG ou d'autres législations locales, nous la bloquons localement.
L'évaluation des réclamations n'est souvent pas facile. Certains crimes, tels que la falsification de données destinées à fournir des preuves (art. 269 du Code pénal allemand), sont difficiles à distinguer, même pour les juristes. Pour donner un autre exemple, la catégorie entière dans laquelle entrent la diffamation et les insultes présente une riche jurisprudence établie au cours des dernières décennies, en particulier depuis l'entrée en vigueur de la Constitution allemande. Ainsi, lorsqu'il est question de diffamation et d'insultes, seule une minorité des cas est manifestement illégale. Les tribunaux délibèrent parfois sur la légalité d'un contenu pendant des années pour arriver systématiquement à des conclusions différentes. Par exemple, la Cour constitutionnelle fédérale allemande a infirmé des jugements rendus par la Cour suprême fédérale, montrant ainsi à maintes reprises que des tests complexes permettant de trouver le juste équilibre doivent être effectués et que la légalité est toujours circonstancielle pour chaque cas individuel. Contrairement aux tribunaux, les réseaux sociaux ne disposent pas toujours de toutes les informations nécessaires. Qui plus est, il n'existe pas de procédure principale établissant des obligations en termes de preuves. Dans ces cas, la recevabilité d'un contenu, mesurée par des éléments spécifiques d'infractions, est très difficile à juger et devrait normalement être décidée par les tribunaux compétents.
Ces considérations sont aussi appuyées par la pratique : de nombreuses réclamations pour diffamation ou insultes se référant à la loi NetzDG ne sont pas déposées par la personne qui en est la cible, mais plutôt par des tiers jugeant que cette personne peut s'estimer diffamée. Le réseau social ignore si c'est effectivement le cas ou si la personne concernée a vraiment déposé une plainte pénale auprès des autorités compétentes chargées de l'application des lois (parce que les poursuites pour ce type d'infractions nécessitent une réclamation de la part de la première partie ["Antragsdelikt"]), car nous ne sommes pas en mesure de confirmer l'identité du demandeur.
Les demandes en vertu de la loi NetzDG sont examinées par notre équipe NetzDG scindée en deux groupes, 7j/7 et 365 jours par an. De cette façon, le contenu concerné peut être supprimé à l'échelle mondiale ou bloqué localement, selon le cas, dans les délais prévus par la loi NetzDG. Si une réclamation est manifestement non fondée, le demandeur en est immédiatement informé conformément aux obligations légales (voir la section "Mesures pour informer le demandeur et l'utilisateur ayant mis en ligne le contenu signalé en vertu de la loi NetzDG"). Si le contenu n'enfreint pas manifestement le règlement de la communauté YouTube ni les dispositions applicables du Code pénal, ou s'il est complexe ou ne présente pas de lien évident avec l'Allemagne, l'examinateur de contenu responsable spécialisé dans la loi NetzDG transmet la demande à sa hiérarchie afin de la faire examiner rapidement pour que des examinateurs de contenus plus expérimentés prennent la décision adéquate. Les demandes complexes sont envoyées à l'équipe juridique YouTube qui, en cas de doute, transmet les cas difficiles et épineux au service juridique de Google Germany GmbH en Allemagne, qui a à son tour la possibilité de faire suivre les cas particulièrement difficiles par un cabinet d'avocats externe spécialisé en droit pénal. Cette procédure prend généralement jusqu'à 7 jours.
Nous avons mis en place un processus strict d'évaluation de la qualité pour nous assurer que l'équipe NetzDG procède comme prévu, et applique correctement et de manière cohérente le règlement de la communauté YouTube lorsqu'elle examine des contenus susceptibles de constituer des crimes en vertu de la loi NetzDG. Dans la période de référence, nous avons évalué en moyenne près de 30 % du contenu examiné de la semaine précédente. Le volume soumis à l'évaluation de la qualité peut varier d'une semaine à l'autre en fonction du nombre de réclamations déposées. Au cours de ce processus, l'équipe d'évaluation de la qualité étudie les décisions prises par chaque examinateur de contenu, fournit des commentaires individualisés et effectue une analyse globale des résultats de cette évaluation. L'échantillon sélectionné constitue la base d'un aperçu hebdomadaire des données sur la qualité. L'équipe de contrôleurs de la qualité est différente de l'équipe NetzDG. Elle est composée d'anciens modérateurs expérimentés qui connaissent parfaitement le règlement de la communauté YouTube et les dispositions du Code pénal auxquelles se réfère la loi NetzDG. Lors de réunions hebdomadaires entre l'équipe juridique YouTube et l'équipe NetzDG, nous discutons non seulement des résultats de la dernière évaluation de la qualité, mais aussi de cas particulièrement intéressants, difficiles et complexes. Pour adopter une approche parfaitement cohérente au sein de l'équipe NetzDG, nous abordons également toutes les tendances notables, les "sujets d'actualité" et les développements en termes de jurisprudence. Le cas échéant, nous affinons les règles de suppression pour les adapter, par exemple, aux dernières modifications apportées au règlement de la communauté YouTube et aux nouveaux éléments en termes de jurisprudence. Dans de tels cas, de nouvelles instructions et, le cas échéant, des supports de formation sont fournis à tous les membres de l'équipe NetzDG.
Appels des décisions prises en vertu de la loi NetzDG : si nous identifions une vidéo signalée dans le cadre d'une réclamation se référant à la loi NetzDG comme illégale du fait d'un crime figurant visé par cette loi, l'utilisateur qui l'a mise en ligne reçoit un message similaire contenant un lien vers le formulaire d'appel. Il en va de même pour le demandeur lorsque nous n'avons pas donné suite à sa réclamation, faute d'avoir identifié l'une des infractions pénales visées par la loi NetzDG.
Si un tel appel est soumis en lien avec la loi NetzDG, un membre de l'équipe NetzDG qui n'a pas pris la décision initiale procédera à une réévaluation du cas en référence à la loi NetzDG afin de confirmer ou de revenir sur cette décision concernant la présence d'infractions pénales visées par la loi NetzDG. Le résultat de ce nouvel examen est communiqué par e-mail.
Appels des décisions basées sur le règlement de la communauté : lorsque YouTube prend des mesures concernant une vidéo qui enfreint le règlement de la communauté, YouTube informe l'utilisateur qui l'a mise en ligne de la mesure prise et de la raison de sa décision. Nous fournissons à l'utilisateur une description, un lien pour en savoir plus sur la suppression du contenu et un lien vers une procédure d'appel pour réévaluer le contenu en référence au règlement de la communauté. Depuis longtemps déjà, nous offrons la possibilité aux utilisateurs de faire appel d'une décision s'ils considèrent que leur contenu n'enfreint pas le règlement de la communauté. Le processus détaillé est décrit ici. Les appels et les rétablissements de contenus signalés pour non-respect du règlement de la communauté sont inclus dans le rapport sur l'application du Règlement de la communauté YouTube. Des données détaillées sont disponibles sur cette page Web.
Même si la technologie est devenue très utile pour identifier certains types de contenus controversés (par exemple, pour trouver des objets et des modèles rapidement et à grande échelle dans les images, les vidéos et les contenus audio), l'examen manuel du contexte reste la méthode plus efficace. Par exemple, les algorithmes ne savent pas toujours faire la différence entre la propagande terroriste et les vidéos sur les droits de l'homme, ou entre les discours d'incitation à la haine et les comédies provocatrices. Une intervention humaine est ainsi souvent nécessaire pour prendre la décision finale.
Les signalements de contenus pour non-respect du règlement de la communauté, ainsi que les autres avis, sont examinés par nos systèmes technologiques conjointement avec des employés et des prestataires de Google. Nous nous appuyons sur un système opérationnel et fiable pour évaluer la qualité des contenus afin que nos équipes dans le monde entier prennent les bonnes décisions au sujet des contenus signalés et reçoivent régulièrement des commentaires sur leurs performances. Nos équipes d'examinateurs sont composées de milliers de personnes qui maîtrisent plusieurs langues et qui évaluent les signalements avec la plus grande attention, 24h/24, 7j/7 et 365 jours par an partout dans le monde. Ces équipes comptent de nombreux examinateurs germanophones.
Certains membres des équipes chargées des réclamations d'ordre légal sont des spécialistes germanophones diplômés en droit. Ces derniers, tous formés aux lois locales, consultent le conseiller juridique Google local. Google emploie une vaste équipe d'avocats situés dans de nombreux pays européens. Ils participent, si nécessaire, à l'analyse juridique des contenus qui nous sont signalés. En outre, les équipes peuvent solliciter des conseils supplémentaires auprès de conseillers juridiques externes locaux.
Équipe spécialisée dans la loi NetzDG : pour les demandes en vertu de la loi NetzDG, nous avons constitué une équipe spécialisée chez un fournisseur de services externe en Allemagne (l'équipe NetzDG). Le nombre d'examinateurs de contenus peut varier selon le volume de demandes en lien avec la loi NetzDG. Au cours de la période de référence, 77 membres de l'équipe NetzDG ont travaillé sur les demandes en rapport avec la loi NetzDG. Dans cette équipe, 61 membres étaient des examinateurs de contenus (dont des examinateurs plus expérimentés) supervisés par 5 chefs d'équipe et assistés par 6 contrôleurs qualité et 2 formateurs.
Pour garantir la diversité culturelle, nos examinateurs présentent des parcours professionnels variés, parlent plusieurs langues et appartiennent à différentes tranches d'âge comprises, dans la période de référence, entre 21 et 55 ans. Tous les membres de l'équipe NetzDG parlent couramment l'allemand (la plupart étant de langue maternelle allemande). Ils sont tous anglophones et un à 30 d'entre eux parlent chacun une ou plusieurs des langues suivantes : bulgare, espagnol, italien, japonais, kurde, russe, serbe, turc et ukrainien. C'est un atout pour identifier un lien potentiel avec l'Allemagne dans une langue étrangère. Au cours de la période de référence, un quart des membres de l'équipe NetzDG (25 %) possède un diplôme universitaire tel qu'une licence, un master ou un diplôme d'État dans différentes disciplines comme les sciences politiques, la traduction, les sciences des médias, la gestion d'entreprise, les sciences de la santé, le génie industriel, l'archéologie ou l'enseignement. Un membre de l'équipe est titulaire d'un doctorat. Environ 40 % de l'équipe a une expérience comme commercial, chef cuisinier ou employé de bureau, dans l'industrie, l'administration, le tourisme, la gestion d'édition ou la maçonnerie, ou encore dans des domaines tels que les technologies de l'information et des médias, la gestion logistique ou l'agroalimentaire.
Au moins une fois par semestre, l'équipe NetzDG est formée à la fois sur l'évaluation des infractions pénales relevant de la loi NetzDG et sur le règlement de la communauté YouTube.
Chaque membre de l'équipe NetzDG reçoit une formation d'initiation complète sur l'ensemble des points du règlement de la communauté YouTube, des procédures et de nos systèmes techniques, ainsi qu'une formation juridique sur les crimes visés par la loi NetzDG. Outre cette formation d'initiation, nous organisons tous les six mois une formation de remise à niveau obligatoire sur la loi NetzDG. Cette dernière est dispensée en allemand par une équipe composée généralement d'experts juridiques externes et de membres des équipes juridiques de YouTube et de Google Germany GmbH. En fonction de la taille du groupe et des horaires de travail, la formation est divisée en plusieurs sessions afin que tous les membres de l'équipe, y compris les chefs d'équipe, les contrôleurs qualité et les formateurs, puissent la suivre et avoir l'occasion, si nécessaire, d'évoquer les questions et les exemples sujets à discussion (recueillis à l'avance). Si besoin, nous proposons aussi une formation ponctuelle, dispensée par l'équipe juridique YouTube avec l'aide de membres du service juridique de Google Germany GmbH. Sur la base d'un modèle dédié, nous formons des membres désignés de l'équipe NetzDG, lesquels sont ensuite chargés de former le reste de l'équipe. La formation de remise à niveau et la formation juridique ponctuelle portent toutes deux sur les développements en cours, les tendances, les nouvelles jurisprudences et les types de demandes difficiles à évaluer au cours du semestre écoulé. La formation ponctuelle aborde différents sujets, comme la diffamation religieuse, les contenus violents et les insultes à l'encontre de personnalités publiques et politiques.
L'équipe NetzDG bénéficie aussi régulièrement d'une formation de remise à niveau sur le règlement de la communauté. Celle-ci porte sur les derniers développements et les nouvelles tendances utiles à l'équipe concernant des thèmes comme l'incitation à la haine et la sécurité des enfants. De plus, des formations spécialisées sont organisées dans des domaines spécifiques, comme les contenus sur les armes, les canulars et challenges nuisibles et dangereux, la sécurité numérique et les farces. La formation basée sur le règlement de la communauté est dispensée par les responsables de l'application des règles en collaboration avec les membres de l'équipe juridique YouTube. Le cas échéant, l'équipe NetzDG reçoit aussi des mises à jour hebdomadaires et urgentes sur le règlement de la communauté.
Un soutien psychologique et des programmes efficaces de bien-être sont proposés aux membres de l'équipe spécialisée dans la loi NetzDG. Il peut s'agir d'une formation régulière ou sur demande, ainsi que de séances d'aide individualisées en allemand, dispensées par une équipe dédiée de psychologues, de thérapeutes et de formateurs germanophones. Une ligne d'assistance directe est disponible pour prodiguer des conseils 24h24 et 7j/7. Nous fournissons aussi des installations de bien-être, y compris des espaces pour "s'évader" et un espace privé dédié aux séances individuelles d'aide psychologique. Tout cela s'inscrit parfaitement dans le programme de bien-être auquel ont accès toutes les équipes d'examinateurs de Google et de YouTube. En outre, l'équipe bénéficie de tarifs réduits pour des abonnements en salles de sport et de remise en forme.
YouTube est représenté via Google dans les associations suivantes en rapport avec la loi NetzDG :
FSM et eco proposent des lignes directes que les utilisateurs peuvent appeler pour soumettre des signalements, qui sont ensuite transmis à nos équipes de modérateurs pour être examinés. Dans tous les cas, nous envoyons des commentaires détaillés au sujet de notre décision sur la ligne directe de signalement.
Le travail d'équipe est essentiel à nos yeux. C'est pourquoi nous travaillons en étroite collaboration avec des groupes de la société civile dont la mission est d'éradiquer l'incitation à la haine et la discrimination ainsi qu'avec les autorités administratives pour mieux cerner le contexte local et développer des solutions. Nous examinons régulièrement nos pratiques d'application des règles avec des partenaires et des experts. Nous invitons aussi les ONG à participer à des ateliers locaux ou à travers le pays, au cours desquels nous les informons sur nos règles et les mises à jour de produits, nous les formons à l'utilisation des services Google et des mesures de sécurité, et nous discutons avec elles des défis récents et des principaux problèmes.
Google et YouTube ont lancé plusieurs initiatives pour lutter contre l'incitation à la haine en ligne et soutiennent les victimes de contenus illégaux.
L'Impact Challenge pour le respect en ligne de Google.org est un fonds de 10 millions d'euros destiné à soutenir les organisations qui luttent contre la haine et l'extrémisme, et pour la sécurité des enfants en Europe et dans le monde entier, que ce soit sur Internet ou ailleurs. En finançant des projets communautaires nouveaux et existants en Europe, Google espère soutenir les initiatives de lutte contre la haine et l'extrémisme tout en aidant les jeunes à accéder à la citoyenneté numérique en toute confiance. Parmi les lauréats figurent les associations allemandes HateAid et Gefangene helfen Jugendlichen e.V. Notre subvention aidera HateAid à soutenir les victimes d'incitations à la haine et d'autres actes de ce type en ligne, de développer la résilience des utilisateurs qui subissent ces attaques et de leur donner les moyens de retourner sur Internet sans avoir le sentiment d'être réduits au silence par des acteurs malveillants. Afin de réduire le récidivisme chez les jeunes Allemands vulnérables, l'équipe de Gefangene helfen Jugendlichen leur offre un soutien professionnel et divers programmes, y compris des visites en prison et des rencontres avec d'anciens condamnés pour les informer sur les conséquences concrètes des actes criminels.
Depuis de nombreuses années, Google s'engage à favoriser l'éducation aux médias, à fournir aux jeunes et aux utilisateurs de tous âges les outils dont ils ont besoin, ainsi qu'à mettre des ressources pédagogiques à la disposition des enseignants. Nous mettons tout en œuvre pour sensibiliser les utilisateurs aux mécanismes de signalement et pour leur faire connaître les règles et les paramètres de Google et YouTube, ainsi que leurs outils de bien-être numérique.
Depuis 2013, Google soutient l'Association allemande pour l'autorégulation des fournisseurs de services multimédias numériques (FSM, e.V.) et contribue à son financement. Cela a permis à cette association de créer et de développer le catalogue de ressources pédagogiques Medien in die Schule, qui comprend des plans de cours pour infléchir les opinions des internautes, lutter contre l'incitation à la haine, faire la part entre réalité et fiction dans les médias et mieux comprendre les systèmes d'information.
En 2009, YouTube, avec différents partenaires locaux et sous le parrainage de la chancelière Angela Merkel, a lancé l'initiative "361 Grad Respekt", reprise plusieurs fois entre 2009 et 2014 (en 2010 sous le parrainage du ministre de la Famille), puis relancée sous le nom de #NichtEgal en 2016 ainsi qu'en 2018. Cette initiative visait à encourager un comportement respectueux sur Internet et ailleurs, tout en incitant les jeunes à lutter contre la haine et la discrimination via divers concours vidéo et ateliers scolaires.
Financée par une subvention de la branche philanthropique de Google, Google.org, l'Association allemande pour l'autorégulation des fournisseurs de services multimédias numériques (FSM, e.V.) a lancé le projet Weitklick en mai 2020. Son objectif est de développer une plate-forme d'apprentissage mixte conçue pour faciliter la communication entre les journalistes, les écoles et les enseignants, mais aussi afin de donner à ces derniers les outils nécessaires pour aborder efficacement le phénomène de la désinformation avec leurs élèves.
Nous continuons d'investir dans un réseau mondial de plus de 300 universitaires, partenaires publics et ONG, qui apportent une expertise précieuse à nos systèmes d'application du règlement, comme, en Allemagne, la Fondation Amadeu Antonio, l'organisation Nummer gegen Kummer et le réseau Violence Prevention Network.
Afin d'appliquer le règlement de la communauté YouTube, YouTube adopte une approche "humain + machine" pour signaler les contenus inappropriés et permettre une évaluation basée sur ce règlement. Les signalements indiquant des infractions potentielles au règlement de la communauté peuvent provenir des systèmes de signalement automatique de YouTube, de membres du programme Trusted Flagger (ONG, autorités administratives et utilisateurs individuels) ou d'utilisateurs de la communauté YouTube.
YouTube a toujours eu recours à une combinaison d'examinateurs manuels et de technologies pour traiter les contenus non conformes sur sa plate-forme. En 2017, YouTube a commencé à appliquer une technologie plus avancée de machine learning (apprentissage automatique) afin de signaler les contenus à soumettre aux examinateurs manuels. En associant une technologie de détection intelligente à des examinateurs manuels hautement qualifiés, YouTube a pu réagir de plus en plus vite en cas d'infraction à ses règles.
Les machines permettent à YouTube d'identifier des contenus à examiner à grande échelle. Nous pouvons ainsi supprimer des millions de vidéos non conformes avant tout visionnage. Par ailleurs, les investissements de YouTube dans le machine learning pour accélérer la suppression de contenus s'avèrent probants dans les domaines à haut risque et à faibles volumes (comme les contenus 'extrémistes violents) ainsi que dans certains domaines aux volumes élevés (comme le spam).
Pour consulter les données les plus récentes sur les suppressions de vidéos résultant de l'application du règlement de la communauté YouTube, cliquez ici.
Le déploiement du machine learning implique en fait de faire examiner les contenus par un plus grand nombre de personnes. Nos systèmes ne peuvent pas se passer d'examens manuels pour déterminer si des contenus enfreignent nos règles.
Lorsque nous détectons une vidéo qui enfreint notre règlement, nous la supprimons et envoyons un avertissement à la chaîne concernée. Nous pouvons supprimer des chaînes entières, si elles sont dédiées à la publication de contenus interdits par le règlement de la communauté, ou encore si un contenu unique relève d'une infraction flagrante (abus sexuels sur des enfants, par exemple). La grande majorité des tentatives d'abus proviennent d'acteurs malintentionnés qui essaient de mettre en ligne du spam ou des contenus réservés aux adultes.
Pour en savoir plus sur notre lutte contre ce type de contenus et sur l'impact de nos investissements, cliquez ici.
Nous avons également créé des outils qui permettent aux créateurs de modérer les commentaires publiés sous leurs vidéos. Par exemple, les créateurs peuvent choisir de soumettre tous les commentaires à un examen avant publication ou de bloquer la publication de tout commentaire contenant des liens ou incluant du contenu choquant. Plus d'un million de créateurs utilisent désormais ces outils pour modérer les commentaires sur leur chaîne.
Les Conditions d'utilisation de YouTube sont clairement structurées et incluent, entre autres, la section "Votre contenu et votre conduite", qui explique de façon accessible aux utilisateurs quels sont les contenus et comportements interdits sur cette plate-forme. Les conditions d'utilisation indiquent expressément que l'utilisation du service est régie par les conditions d'utilisation, le règlement de la communauté YouTube, ainsi que les règles de YouTube concernant la sécurité, les droits d'auteur et le contrat (le "Contrat"). Conformément aux conditions d'utilisation, aucun contenu ne doit être publié s'il enfreint le Contrat ou la loi. Le règlement de la communauté intégré au Contrat est structuré de manière claire et compréhensible et couvre cinq domaines : spam et pratiques trompeuses, contenus sensibles, contenus violents ou dangereux, produits réglementés et informations incorrectes. Chacun de ces domaines est subdivisé en plusieurs sections contenant les règles appropriées. Chacune de ces règles commence par une description générale des contenus non autorisés sur YouTube et des raisons pour lesquelles ils sont interdits. La section "Ce que ces règles impliquent pour vous" indique aux utilisateurs ce que cela signifie précisément pour leur conduite sur la plate-forme. Cette section est généralement suivie d'une sous-section "Exemples" qui propose des exemples concrets de contenus interdits sur YouTube en vertu de ces règles. Enfin, dans une section intitulée "Que se passe-t-il si un contenu ne respecte pas ces règles ?", les utilisateurs sont informés des conséquences possibles d'un tel non-respect. Ces dispositions imposent ainsi des limites aux contenus susceptibles d'être diffusés sur YouTube de façon accessible et en termes clairs. Elles contiennent des descriptions détaillées des comportements non autorisés, accompagnées d'exemples concrets. Ces dispositions sont faciles à trouver. Elles sont formulées de manière claire et exhaustive, et respectent donc les exigences du paragraphe 1 de l'article 307, ainsi que des articles 308 et 309 BGB. Les dispositions de ce règlement sont basées sur des critères objectifs et vérifiables. Elles respectent donc les normes de la jurisprudence applicable. De plus, les utilisateurs sont informés en détail de la manière dont ils sont avertis en cas de non-respect des conditions d'utilisation ou du règlement de la communauté, ainsi que de la manière dont ils peuvent transmettre des informations ou faire appel.
Pour chaque période de référence, nous recueillons une série d'exemples qui illustrent le mieux les décisions que nous avons prises concernant le contenu supposé illégal afin de brosser un tableau de l'ampleur du contenu couvert par la loi NetzDG et des types de contenus qu'il nous est demandé de supprimer.
Un clip musical montrant un homme nu sortant de l'eau a été signalé à plusieurs reprises comme contenu à caractère sexuel illégal.
Un discours d'Angela Merkel sur la place de l'islam en Allemagne a été signalé comme une incitation à la haine et un contenu terroriste, car selon les demandeurs, Angela Merkel mettrait ainsi le pays en danger et conduirait l'Allemagne à une catastrophe.
Une vidéo critique et satirique de Jan Böhmermann sur un groupe d'extrême droite a suscité plusieurs signalements pour soupçons d'incitation à la haine, de violence, de spam, de diffamation et d'insultes.
Un commentaire qui encourage les "câlins à la maison" a été signalé sous la catégorie "actes nuisibles ou dangereux".
Une vidéo montrant un "prédicateur de la haine" islamique allemand connu, appelant à réciter la "dou'a" (invocation) et à accomplir le "tawaf" (circumambulation), dans laquelle on peut entendre résonner la formule du "takbîr" ("Allahu akbar"). Elle a été signalée à plusieurs reprises comme un contenu de propagande terroriste en vertu de la loi NetzDG. Cependant, comme la da'wa (loi religieuse) autorise également une autre interprétation, et que l'acte de propagande n'a pas pu être établi dans la vidéo, le conseiller juridique externe a considéré ce contenu comme légal.
Google fournit des informations sur les suppressions, les règles et les procédures contenues dans ce rapport conformément à la loi allemande NetzDG.
Archives de signalement YouTube arrow_forward