Transparence des informations

Sélection de règles

Cette section vous fournit davantage d'informations sur les domaines dans lesquels nos systèmes de signalement automatiques jouent un rôle déterminant. Lorsque nos systèmes automatiques détecte un contenu potentiellement problématique, un évaluateur manuel vérifie qu'il enfreint effectivement nos règles, puis prend les mesures appropriées. Ces décisions servent ensuite à entraîner nos systèmes afin d'en améliorer l'efficacité et d'offrir une meilleure protection.

Sélection de règles : Contenu extrémiste violent

Sont considérés comme ne respectant pas nos règles relatives au contenu extrémiste violent les contenus produits par des organisations terroristes étrangères répertoriées comme telles par des gouvernements. Nous n'autorisons pas les organisations terroristes à utiliser YouTube à quelque fin que ce soit, y compris à des fins de recrutement. Nous interdisons également la diffusion sur YouTube de contenus promouvant le terrorisme, tels que des contenus faisant l'apologie d'actes terroristes ou incitant à la violence. Nous faisons cependant une exception pour les contenus partagés à des fins éducatives, documentaires, scientifiques ou artistiques.

Les contenus produits par des groupes extrémistes violents qui ne sont pas répertoriés comme organisations terroristes étrangères par des gouvernements sont souvent couverts par nos règles sur la publication de contenu haineux, violent ou choquant, y compris les contenus principalement destinés à choquer, ou à caractère sensationnel ou gratuit. Les évaluateurs vérifient que le contenu signalé respecte l'intégralité de nos règles et du règlement de la communauté. Nous limitons les chiffres de cette section au contenu supprimé pour non-respect du règlement sur l'extrémisme violent.

Nombre total de vidéos supprimées
328 021

Règlement de la communauté et informations relatives à son application

Comment YouTube utilise la technologie pour détecter les contenus non conformes : extrémisme violent

YouTube a mis au point des systèmes automatiques qui facilitent la détection de contenus susceptibles d'enfreindre nos règles. Lorsqu'un contenu de ce type est ainsi identifié, il est ensuite examiné manuellement afin de vérifier s'il enfreint effectivement nos règles. Si c'est le cas, il est supprimé et mis à profit pour entraîner nos systèmes et accroître leurs capacités de détection. De manière générale, le titulaire du compte sur lequel ce contenu a été publié reçoit un avertissement. Après plusieurs avertissements, le compte en question est clôturé. En ce qui concerne les systèmes automatiques dédiés à la détection de contenus extrémistes, nos équipes ont examiné plus de trois millions de vidéos qui ont été autant d'exemples pour entraîner les systèmes et améliorer ainsi la technologie de signalement par machine learning (apprentissage automatique).

Le machine learning nous aide à supprimer des contenus extrémistes avant qu'ils ne puissent être vus par un grand nombre de personnes. Les efforts non négligeables que nous déployons pour lutter contre ce type de contenu portent leurs fruits : entre avril et juin 2022, environ 95 % des vidéos supprimées pour non-respect de notre règlement sur la violence extrémiste ont tout d'abord été signalées automatiquement.

Partage d'empreintes : extrémisme violent

YouTube fait appel à la technologie pour empêcher toute nouvelle mise en ligne de contenus non conformes déjà connus avant qu'ils ne soient accessibles au public. Cela fait déjà longtemps que utilisons ce système pour empêcher la propagation d'images d'abus sexuels sur mineurs sur la plate-forme. En 2016, nous avons créé une base de données pour la mise en commun de hachages avec des partenaires du secteur afin partager les hachages (c'est-à-dire l'empreinte numérique) de contenus à caractère terroriste en vue d'enrayer leur propagation. Cette base de données partagée contient actuellement plus de 400 000 hachages uniques, bien que quasiment identiques pour un œil humain.

Fort de sa vaste bibliothèque multimédia et de ses systèmes de détection automatisés, YouTube contribue largement au partage de hachages sur la base de données dédiée. En 2023, la plate-forme a ajouté plus de 45 000 hachages uniques à cette base de données de partage, dans le respect des critères établis par le Global Internet Forum to Counter Terrorism (Forum mondial de l'Internet contre le terrorisme).

Une fois les données hachées, les autres partenaires peuvent s'en servir pour détecter les contenus associés sur leurs propres plates-formes et les évaluer à l'aune de leurs règles applicables aux contenus. Depuis 2017, le nombre d'entreprises qui contribuent à cette base de données et bénéficient de ses ressources est passé de 4 à 13. Cette démarche organisée est désormais officiellement gérée par le Global Internet Forum to Counter Terrorism (GIFCT).

Global Internet Forum to Counter Terrorism : extrémisme violent

En 2017, YouTube, Facebook, Microsoft et Twitter ont fondé le GIFCT (Global Internet Forum to Counter Terrorism, Forum mondial de l'Internet contre le terrorisme) afin de s'engager ensemble contre la diffusion de contenus à caractère terroriste sur leurs plates-formes numériques. Même si nos entreprises partagent déjà depuis des années leurs bonnes pratiques en termes d'antiterrorisme, le GIFCT offre un cadre plus formel pour accélérer et renforcer les actions mises en œuvre, tout en présentant un front uni contre la propagation de contenus à caractère terroriste sur le Web. En collaboration avec l'initiative Tech Against Terrorism ("la technologie contre le terrorisme"), le GIFCT organise des ateliers dans le monde entier pour les entreprises technologiques, les organisations non gouvernementales et les organismes gouvernementaux internationaux.

Étant donné la diversité des membres et des partenaires du secteur qui contribuent à la base de données de partage des hachages, il a été nécessaire de définir un consensus de base sur les critères spécifiques aux contenus à caractère terroriste et extrémiste, afin de permettre l'examen et le partage des contenus hachés. Comme indiqué dans le rapport annuel Transparence des informations de 2021 du GIFCT, "le champ d'application initial de cette base de données de partage des hachages est limité au contenu en lien avec les organisations soumises aux sanctions consolidées du Conseil de sécurité des Nations Unies".

YouTube et les autres membres fondateurs du GIFCT ont signé l'Appel de Christchurch pour éliminer les contenus à caractère terroriste et extrémiste violents en ligne. S'appuyant sur cet appel, le GIFCT a développé pour les entreprises membres un nouveau protocole en cas d'incidents liés aux contenus, afin de réagir efficacement à la diffusion en direct de contenus créés par des criminels après une attaque violente sur des personnes réelles. Ce protocole a été testé et a prouvé son efficacité, par exemple, à la suite de l'attaque sur la synagogue de Halle en Allemagne (octobre 2019), de la fusillade de Glendale dans l'État d'Arizona aux États-Unis (mai 2020), de la fusillade de Buffalo dans l'État de New York (juin 2022) et de la fusillade de Memphis dans l'État du Tennessee, aux États-Unis (septembre 2022). Depuis la création de ce protocole, le GIFCT a continué de développer son système de réponse aux incidents liés aux contenus afin d'inclure un nouveau niveau pour bloquer également les vidéos et les images d'attaques sur des personnes réelles qui sont diffusées en différé par les criminels. Cet outil a été activé pour la première fois après une attaque à Udaipur, dans l'État du Rajasthan, en Inde (juillet 2022).

Le GIFCT a évolué pour devenir aujourd'hui une organisation autonome composée d'un directeur exécutif et de personnel indépendants. Il est également structuré autour d'un comité consultatif indépendant constitué de représentants gouvernementaux et non-gouvernementaux, y compris des lobbies, des spécialistes des droits humains, des chercheurs et des experts techniques. Dans ce nouveau cadre de gouvernance mis en place par le GIFCT, YouTube occupe une place au sein du directoire exécutif.

Contenu à caractère éducatif, documentaire, scientifique et artistique : extrémisme violent

Nous encourageons les utilisateurs qui publient du contenu lié au terrorisme dans un but éducatif, documentaire, scientifique ou artistique à être vigilants et à fournir suffisamment d'informations pour contextualiser le contenu. La publication de contenu violent ou sanglant principalement destiné à choquer, ou à caractère sensationnel ou gratuit, est interdite. Si une vidéo est particulièrement choquante ou dérangeante, vous devez fournir des informations et du contexte supplémentaire pour aider le public à comprendre ce qu'il regarde, par exemple par le biais d'une introduction, d'un commentaire en voix off ou de texte superposé à l'image, ainsi que par un titre et une description clairs. La présence d'un contexte éducatif ou documentaire aide le public, et nos évaluateurs, à comprendre pourquoi un contenu susceptible d'être perturbant reste parfois visible sur YouTube. Par exemple, la mise en ligne par un journaliste citoyen d'une vidéo de manifestants violentés est autorisée si elle s'accompagne des informations adéquates (date, lieu, contexte, etc.). Toutefois, si ce même contenu est mis en ligne sans informations contextuelles ou éducatives, il peut être considéré comme de la violence gratuite et supprimé du site. Les contenus visuellement choquants ou controversés peuvent être soumis à une limite d'âge ou un écran d'avertissement peut être ajouté.

Signaleur prioritaire : extrémisme violent

À travers tous les domaines couverts par nos règles, nous continuons d'investir dans notre réseau de plus de 300 partenaires gouvernementaux et ONG, qui apportent une expertise précieuse à nos systèmes d'application du règlement, y compris via notre programme Signaleur prioritaire. Les participants au programme Signaleur prioritaire sont formés sur l'application du règlement de la communauté YouTube. Leurs signalements ayant un taux d'action supérieur à celui des utilisateurs moyens, nous les traitons en priorité. Pour résoudre les problèmes plus rapidement, ils sont en communication directe avec nos équipes Trust & Safety. Les contenus signalés par un signaleur prioritaire sont soumis aux mêmes règles que ceux signalés par n'importe quel autre utilisateur. Nos équipes qualifiées examinent ces contenus pour déterminer s'ils enfreignent le règlement de la communauté et s'ils doivent être supprimés.

Exemples de décisions pour les vidéos signalées : Contenu extrémiste violent

Voici des exemples de vidéos signalées comme étant susceptibles d'enfreindre le Règlement de la communauté. Il s'agit d'un aperçu non exhaustif des types de contenus qui nous sont signalés.

Motif du signalement
Sexuel
Type d'entité à l'origine du signalement
Signaleur prioritaire
Description de la vidéo
Une vidéo montrant un mineur se livrer à un acte sexuel.
Résultat
La vidéo enfreint les règles sur la sécurité des enfants qui interdisent les contenus présentant une sexualisation de mineurs, et la chaîne a été supprimée.
Motif du signalement
Maltraitance d'enfants
Type d'entité à l'origine du signalement
Signaleur prioritaire
Description de la vidéo
Une vidéo montrant un mineur se livrer une activité non sexuelle, avec un titre de vidéo qui le sexualise.
Résultat
La vidéo enfreint les règles sur la sécurité des enfants qui interdisent les contenus présentant une sexualisation de mineurs, et la chaîne a été supprimée.
Motif du signalement
Offensant ou haineux
Type d'entité à l'origine du signalement
Signaleur prioritaire
Description de la vidéo
Une vidéo montrant le visage d'une personne mineure sur le corps d'une autre personne avec de l'audio qui sous-entend qu'elle est homosexuelle.
Résultat
La vidéo enfreint les règles sur le harcèlement et le cyberharcèlement qui interdisent la diffusion de contenus dans le but d'humilier, de tromper ou d'insulter un mineur. La chaîne a été supprimée.
Motif du signalement
Maltraitance d'enfants
Type d'entité à l'origine du signalement
Signaleur prioritaire
Description de la vidéo
Une vidéo demandant des images à caractère sexuel de mineurs à l'école.
Résultat
La vidéo enfreint les règles sur la sécurité des enfants qui interdisent les contenus présentant une sexualisation de mineurs, et la chaîne a été supprimée.
Motif du signalement
Offensant ou haineux
Type d'entité à l'origine du signalement
Utilisateur
Description de la vidéo
Vidéo qui prétend que les fusillades ayant frappé deux mosquées de Christchurch, en Nouvelle-Zélande, en mars 2019 n'ont jamais eu lieu.
Résultat
La vidéo a été supprimée, car elle enfreignait le règlement sur l'incitation à la haine, qui interdit tout contenu niant l'existence d'événements violents bien documentés.

Application du règlement de la communauté YouTube

Les utilisateurs et créateurs du monde entier utilisent YouTube pour exprimer leurs idées et opinions. L'approche de YouTube concernant la responsabilité est basée sur la règle des quatre R : Retirer les contenus ne respectant pas le règlement, mettre en avant les sources qui font Référence, Restreindre les recommandations de contenus à la limite d'une infraction et Récompenser les créateurs de confiance.

En savoir plus avec Comment fonctionne YouTube