Informe de transparencia

Políticas destacadas

En esta sección se proporcionan más datos sobre algunas de las áreas de políticas en las que nuestros sistemas de denuncia automática resultan decisivos a la hora de ayudar a detectar contenido infractor. Cuando nuestros sistemas automatizados denuncian contenido potencialmente problemático, los revisores lo analizan para comprobar si infringe nuestras políticas, en cuyo caso, toman las medidas oportunas. Estas decisiones refuerzan continuamente nuestros sistemas para mejorar su precisión de cara al futuro.

Políticas destacadas: Extremismo violento

Entre el contenido que infringe nuestras políticas sobre extremismo violento se incluye material creado por organizaciones terroristas extranjeras que figuran en listas gubernamentales. No permitimos que ninguna organización terrorista utilice YouTube para ningún fin, incluida la captación de nuevos miembros. Asimismo, prohibimos terminantemente la publicación de contenido en YouTube que promueva el terrorismo como, por ejemplo, contenido que enaltezca actividades terroristas o instigue la violencia. Hacemos concesiones en el caso del contenido que se difunde en un contexto educativo, documental, científico o artístico.

El contenido creado por grupos extremistas violentos no clasificados como organizaciones terroristas por instituciones internacionales generalmente está contemplado en nuestras políticas como contenido que incita al odio o contenido violento o explícito , incluido aquel que contenga violencia gratuita o con el que se pretenda generar escándalo o sensacionalismo. Los revisores analizan el contenido denunciado para comprobar si cumple todas nuestras políticas y las normas de la En esta sección solo incluimos las cifras relativas al contenido que retiramos por infringir nuestra política sobre extremismo violento.

Total de vídeos retirados
328.021

Detalles sobre las normas de la comunidad de YouTube y su aplicación

Cómo usa YouTube la tecnología para detectar contenido infractor: extremismo violento

En YouTube, hemos creado sistemas automatizados para detectar contenido que puede infringir nuestras políticas. Cuando estos sistemas denuncian contenido potencialmente problemático, los revisores humanos comprueban si infringe nuestras políticas, en cuyo caso lo retiramos y lo usamos para entrenar nuestros sistemas y mejorar su precisión de cara al futuro. La cuenta que ha publicado el contenido suele recibir una falta y se cancela si recibe varias. En cuanto a la detección automática de contenido extremista, los más de tres millones de vídeos que han revisado manualmente nuestros equipos constituyen un gran volumen de ejemplos para el entrenamiento que ayudan a mejorar el aprendizaje automático de la tecnología de denuncia.

Ahora el aprendizaje automático nos permite retirar el contenido extremista antes de que lo vean muchos usuarios. La gran inversión que hicimos para luchar contra este tipo de contenido está dando sus frutos: entre abril y junio del 2022, aproximadamente el 95 % de los vídeos que se retiraron por infringir nuestra política sobre Extremismo Violento ya se habían denunciado automáticamente.

Tecnología hash compartida: extremismo violento

YouTube utiliza tecnología para impedir que se vuelva a subir contenido que ya se ha clasificado como infractor antes de que esté disponible públicamente. Llevamos mucho tiempo usando esta tecnología para evitar la difusión de imágenes de abuso sexual infantil en la plataforma. En el 2016, creamos una base de datos de hashes con partners del sector en la que compartimos hashes (o "huellas digitales") de contenido de carácter terrorista para detener su difusión. Actualmente, la base de datos compartida contiene más de 400.000 hashes únicos que son prácticamente idénticos a simple vista.

La amplia biblioteca multimedia y los sistemas de detección automática de YouTube nos permiten contribuir una gran cantidad de hashes a la base de datos. Siguiendo los criterios de uso compartido del Global Internet Forum to Counter Terrorism (GIFCT; el foro internacional de Internet contra el terrorismo), YouTube contribuyó más de 45.000 hashes únicos a la base de datos en el 2023.

Una vez que el contenido se ha cifrado con hash, otras plataformas pueden usar estas huellas digitales para detectar contenido relacionado en sus plataformas y evaluarlo según sus propias políticas de contenido. Desde el 2017, el número de empresas que contribuyen a esta base de datos y se benefician de ella ha aumentado de 4 a 13. Ahora, esta iniciativa la gestiona oficialmente el GIFCT.

Global Internet Forum to Counter Terrorism: extremismo violento

En el 2017, YouTube, Facebook, Microsoft y Twitter fundaron el Global Internet Forum to Counter Terrorism (GIFCT; el foro internacional de Internet contra el terrorismo) para impedir el abuso por parte de terroristas de las plataformas digitales de sus miembros. Aunque nuestras empresas comparten prácticas recomendadas para luchar contra el terrorismo desde hace años, el GIFCT proporciona una estructura más formal que permite acelerar y reforzar este trabajo, así como crear un frente unido para luchar contra la divulgación online de contenido de carácter terrorista. El GIFCT, en colaboración con la iniciativa Tech Against Terrorism, organiza talleres internacionales en los que participan empresas tecnológicas, organizaciones no gubernamentales y organismos públicos internacionales.

Como distintos miembros y partners del sector utilizan la base de datos de distribución de tecnología hash, fue necesario establecer un consenso general sobre qué se considera contenido de carácter terrorista o extremista para evaluar y compartir las huellas digitales de contenido. Como se indica en el Informe de Transparencia anual de GIFCT del 2021, "el alcance original de la base de datos de distribución de tecnología hash se limita al contenido relacionado con las organizaciones que aparecen en la lista consolidada de sanciones del Consejo de Seguridad de las Naciones Unidas".

YouTube y los otros miembros fundadores del GIFCT se sumaron al llamamiento de Christchurch para eliminar el contenido de carácter terrorista y extremista violento de la red. Basándose en este llamamiento, el GIFCT creó un nuevo protocolo de respuesta a incidentes (CIP) para que sus miembros puedan actuar de forma eficaz ante el contenido emitido en directo por criminales tras cometer un ataque violento en el mundo real. Este protocolo se probó y su eficacia quedó demostrada, por ejemplo, tras el ataque a una sinagoga en Halle (Alemania) en octubre del 2019; un tiroteo en Glendale (Arizona, EE. UU.) en mayo del 2020; un tiroteo en Búfalo (Nueva York, EE. UU.) en junio del 2022 y un tiroteo en Memphis (Tennessee, EE. UU.) en septiembre del 2022. Desde que creó el CIP, el GIFCT ha seguido desarrollando su marco de respuesta a incidentes para incluir un nivel de incidentes de contenido para actuar ante los vídeos e imágenes que no sean emitidos en directo, que muestren un ataque violento en el mundo real y que estén producidos por los autores del ataque. Se activó por primera vez después de un ataque en Udaipur (Rajastán, India) en julio del 2022.

El GIFCT se ha convertido en una organización independiente que cuenta con un director ejecutivo y con una plantilla de empleados propia. La estructura del GIFCT también incluye un comité consultivo independiente formado por representantes gubernamentales y miembros no gubernamentales, como grupos de defensa, especialistas en derechos humanos, investigadores y expertos técnicos. En el nuevo marco de gobernanza de la institución, YouTube ocupa un cargo en el comité ejecutivo de GIFCT.

Contenido educativo, documental, científico y artístico: extremismo violento

Si los usuarios publican contenido relacionado con el terrorismo con fines educativos, documentales, científicos o artísticos, deben proporcionar información suficiente para que los usuarios puedan entender el contexto. No se debe publicar contenido violento o morboso cuya principal intención sea resultar escandaloso o sensacionalista de manera gratuita. Si un vídeo resulta particularmente explícito o desagradable, debe ir acompañado de contexto y de información adicional que ayude a los usuarios a entender lo que están viendo, ya sea mediante una introducción, una voz en off o superposiciones de texto, así como un título y una descripción claros. Un contexto documental o educativo puede ayudar a los usuarios y a nuestros revisores a entender por qué a veces hay contenido potencialmente desagradable que no se retira de YouTube. Por ejemplo, seguramente se permitiría la publicación de las imágenes de una paliza a unos manifestantes que un periodista ciudadano grabe y suba junto con información pertinente (la fecha, la ubicación, el contexto, etc.). Sin embargo, las mismas imágenes publicadas sin ese contexto o información podrían considerarse violencia gratuita y retirarse del sitio web. Cualquier grabación explícita o controvertida puede estar sujeta a restricciones de edad o ir precedida de una pantalla de advertencia.

Alertadores Prioritarios: extremismo violento

En todas nuestras áreas de políticas, seguimos invirtiendo en la red formada por más de 300 partners gubernamentales y ONGs, que aportan conocimientos muy valiosos a nuestros sistemas de aplicación de normas (por ejemplo, a través del Programa de Alertadores Prioritarios). Los miembros del Programa de Alertadores Prioritarios reciben formación sobre cómo aplicar las Normas de la Comunidad de YouTube y, dado que sus denuncias generan más acciones que las del usuario común, priorizamos la revisión de los contenidos que denuncian ellos. Los miembros de este programa tienen a su disposición una línea de comunicación directa con nuestros equipos de Confianza y Seguridad para resolver los problemas con mayor celeridad. El contenido que denuncian estos Alertadores Prioritarios está sujeto a las mismas políticas que el contenido que puede denunciar cualquier otro usuario. Además, lo revisan nuestros equipos, cuyos miembros tienen la formación necesaria para decidir si infringe las Normas de la Comunidad y debe retirarse.

Ejemplos de cómo se procesan los vídeos denunciados: Extremismo violento

Estos son ejemplos de vídeos que se han denunciado como contenido que posiblemente infringe las normas de la comunidad. No se trata de una lista exhaustiva; simplemente permite hacerse una idea de las denuncias de contenido que recibimos.

Motivo de la denuncia
Sexual
Tipo de informador
Alertador Prioritario
Descripción del vídeo
Un vídeo en el que se muestra a un menor de edad participando en un acto sexual.
Resultado
El vídeo infringe las políticas de seguridad infantil que prohíben el contenido en el que se sexualiza a menores de edad, y el canal se retiró.
Motivo de la denuncia
Maltrato infantil
Tipo de informador
Alertador Prioritario
Descripción del vídeo
Un vídeo en el que se muestra a un menor de edad en una actividad no sexual, con un título que sexualiza al menor.
Resultado
El vídeo infringe las políticas de seguridad infantil que prohíben el contenido en el que se sexualiza a menores de edad, y el canal se retiró.
Motivo de la denuncia
Vejatorio o que incite al odio
Tipo de informador
Alertador Prioritario
Descripción del vídeo
Un vídeo en el que se muestra a un menor de edad con la cara sobre el cuerpo de otro con audio para dar a entender que el menor es homosexual.
Resultado
El vídeo infringe las políticas sobre acoso y ciberacoso que prohíben contenido cuya intención sea avergonzar, engañar o insultar a un menor de edad, y el canal se retiró.
Motivo de la denuncia
Maltrato infantil
Tipo de informador
Alertador Prioritario
Descripción del vídeo
Un vídeo en el que se solicitaban imágenes sexuales a menores de edad en un colegio.
Resultado
El vídeo infringe las políticas de seguridad infantil que prohíben el contenido en el que se sexualiza a menores de edad, y el canal se retiró.
Motivo de la denuncia
Vejatorio o que incite al odio
Tipo de informador
Usuario
Descripción del vídeo
Un vídeo en el que se afirma que el atentado terrorista de marzo del 2019 en la mezquita de Christchurch en Nueva Zelanda no ocurrió.
Resultado
El vídeo infringe la política sobre incitación al odio, que prohíbe el contenido en el que se niegue que eventos violentos bien documentados han ocurrido. Se retiró el vídeo.

Aplicación de las Normas de la Comunidad de YouTube

Lectores y creadores de todo el mundo utilizan YouTube para expresar sus ideas y opiniones. El enfoque de YouTube sobre la responsabilidad se resume con las cuatro erres: retirar contenido violento, reivindicar las voces fiables, reducir las recomendaciones de contenido cuestionable y recompensar a los creadores de confianza.

Más información en Cómo funciona YouTube