- הסיבה לסימון
- מיני
- סוג המשתמש שסימן את הסרטון
- בתוכנית Priority Flagger
- תיאור סרטון
- סרטון שבו רואים קטינ/ה שמבצע/ת אקט מיני.
- תוצאה
- הסרטון מפר מדיניות בנושא בטיחות ילדים, שלפיה אסור לפרסם תוכן שכולל הצגת קטינים בהקשר מיני, והערוץ הוסר.
בקטע זה ניתן למצוא פרטים נוספים על חלק מתחומי המדיניות שעבורם מערכות הסימון האוטומטי מסייעות לזהות תוכן שמפר מדיניות. לאחר שהמערכות האוטומטיות מסמנות תוכן שעשוי להיות בעייתי, הוא נבדק על ידי אנשים כדי לוודא שהוא אכן מפר את המדיניות והבודקים נוקטים בפעולות המתאימות. נעשה שימוש במקרים האלה כדי לשפר את יכולות הזיהוי של המערכות שלנו.
בתוכן שמפר את המדיניות שלנו נגד אלימות קיצונית נכללים חומרים שנוצרים על ידי ארגוני טרור זרים שמופיעים ברשימות הממשלתיות. אנחנו אוסרים על ארגוני טרור להשתמש ב-YouTube לכל מטרה שהיא, כולל לגיוס תומכים. בנוסף, קיים ב-YouTube איסור חד משמעי על תוכן שמעודד טרור, כמו תוכן שמאדיר פעולות טרור או שמעודד אלימות. אנחנו מגלים הבנה כלפי תוכן שמשותף בהקשר חינוכי, תיעודי, מדעי או אומנותי.
המדיניות שלנו אוסרת לפרסם תוכן שמעודד שנאה או תוכן אלים או קשה לצפייה, כולל תוכן שמטרתו העיקרית היא לזעזע, ליצור סנסציה או להציג אלימות רק לשם האלימות. בדרך כלל, תוכן שנוצר על ידי קבוצות קיצוניות אלימות, שאינן מוכרות כארגוני טרור זרים שמופיעים ברשימות הממשלתיות, מפר את המדיניות הזו. בודקים אנושיים מוודאים אם התוכן המסומן מפר את המדיניות ואת הנחיות הקהילה שלנו. המספרים שבקטע הזה מוגבלים רק לתוכן שהוסר עקב הפרת המדיניות שלנו בנוגע לאלימות קיצונית.
ב-YouTube פותחו מערכות אוטומטיות שעוזרות לזהות תוכן שמפר לכאורה את המדיניות שלנו. לאחר שהמערכות האוטומטיות מסמנות שתוכן מסוים הוא בעייתי לכאורה, התוכן נבדק על ידי אנשים כדי לברר אם הוא אכן מפר את המדיניות. אם מתבצעת הפרה, התוכן מוסר ונעשה שימוש במקרים האלה כדי לשפר את יכולות הזיהוי של המערכות שלנו. בדרך כלל, החשבון שפרסם את התוכן יקבל התראה, ומספר התראות יובילו לסגירת החשבון. הצוותים שלנו בדקו ידנית יותר מ-3 מיליון סרטונים שהכילו לכאורה תוכן שהטיף לקיצוניות, והדוגמאות שימשו כדי לעזור לאמן את המערכת האוטומטית המסמנת תכנים מסוג זה, באמצעות למידת מכונה.
כיום, למידת מכונה מסייעת לנו להסיר תוכן קיצוני לפני שצופים בו הרבה אנשים. להשקעה המשמעותית שלנו במאבק בתוכן מהסוג הזה יש השפעה: בין אפריל ליוני 2022, בערך 95% מהסרטונים שהוסרו עקב הפרת המדיניות שלנו בנוגע לתוכן קיצוני ואלים, סומנו לפני כן באופן אוטומטי.
אנחנו נעזרים באמצעים טכנולוגיים כדי למנוע ממשתמשים ב-YouTube להעלות מחדש תוכן שכבר סומן כמנוגד למדיניות, עוד לפני שהתוכן זמין לציבור. אנחנו נעזרים בטכנולוגיה הזו כבר זמן רב כדי למנוע הפצת תוכן ויזואלי של התעללות מינית בילדים בפלטפורמה. בשנת 2016 הקמנו עם שותפים מהתחום מסד נתונים לשיתוף 'טביעות אצבע דיגיטליות' של תוכן. כל השותפים מעלים אליו 'טביעות אצבע דיגיטליות' של תוכן שקשור לפעילות טרור כדי למנוע את הפצתו. במסד הנתונים המשותף יש כרגע יותר מ-400,000 'טביעות אצבע' ייחודיות שנראות כמעט זהות לעין אנושית.
חלק גדול מ'טביעות האצבע הדיגיטליות' מגיע למסד הנתונים המשותף הזה מספריית המדיה הגדולה וממערכות הזיהוי האוטומטיות של YouTube. בהתאם לקריטריוני השיתוף שנקבעו על ידי פורום האינטרנט הגלובלי למלחמה בטרור (Global Internet Forum to Counter Terrorism), בשנת 2023 נתרמו מ-YouTube למסד הנתונים המשותף יותר מ-45,000 'טביעות אצבע דיגיטליות' ייחודיות של תוכן.
לאחר ש'טביעות האצבע הדיגיטליות' של התוכן נוצרות, מפעילים של פלטפורמות אחרות יכולים להשתמש בנתונים האלה כדי לזהות תוכן קשור ולהעריך אם הוא עומד בתנאים של מדיניות התוכן שלהן. מאז 2017, מספר החברות שתרמו למסד הנתונים הזה והשתמשו בנתונים שבו גדל מ-4 ל-13. כיום, הפעילות המאורגנת הזו מנוהלת באופן רשמי על ידי פורום האינטרנט הגלובלי למלחמה בטרור (GIFCT).
בשנת 2017 YouTube, Facebook, Microsoft ו-Twitter הקימו את פורום האינטרנט הגלובלי למלחמה בטרור (GIFCT). זו קבוצה של חברות שמטרתה להילחם בפגיעה של טרוריסטים בפלטפורמות הדיגיטליות של חברי הקבוצה. למרות שכבר מספר שנים החברות שלנו משתפות את השיטות המומלצות שלהן בנושא לוחמה בטרור, GIFCT מספק מבנה רשמי יותר להאצה ולחיזוק של הפעילות הזו ומאפשר להציג חזית מאוחדת מול הפצת תוכן שקשור לפעילות טרור באינטרנט. ב-GIFCT פועלים בשיתוף עם המיזם Tech Against Terrorism ומעבירים סדנאות ברחבי העולם לחברות היי-טק, לארגונים לא-ממשלתיים ולגופי ממשל בינלאומיים.
יש מגוון של חברים בקבוצה ושותפים בתחום שמשתמשים במסד הנתונים המשותף, לכן היה צורך להגיע להסכמה לגבי סוג התוכן שנחשב כתוכן קיצוני שקשור לפעילות טרור, למטרות בדיקה ושיתוף של 'טביעות אצבע דיגיטליות' של תוכן. כפי שצוין בהצהרת השקיפות השנתית של GIFCT לשנת 2021, "ההיקף המקורי של מסד הנתונים לשיתוף 'טביעות אצבע דיגיטליות' של תוכן מוגבל לתוכן שקשור לארגונים שמופיעים ברשימת הסנקציות המאוחדות של מועצת הביטחון של האו"ם".
YouTube וחברות אחרות שהיו שותפות להקמת GIFCT חתמו בעקבות הפיגוע בכרייסטצ'רץ' על הקריאה להסיר תוכן קיצוני ואלים שקשור לפעילות טרור ומופיע באינטרנט. כתגובה לקריאה הזו, פיתחו ב-GIFCT פרוטוקול חדש לטיפול באירועים שקשורים לתוכן (CIP) כדי שהחברות ששותפות ב-GIFCT יוכלו להגיב ביעילות לתוכן שמופיע בעקבות אירוע אלים שהתרחש בפועל. מדובר על תוכן שנוצר על ידי מבצע האירוע ומופץ בשידור חי. הפרוטוקול הזה נבדק והוכח כיעיל. למשל, אחרי התקיפה בבית הכנסת בהלה שבגרמניה (אוקטובר 2019) ואחרי הירי בגלנדייל במדינת אריזונה שבארה"ב (מאי 2020). מקרים נוספים: הירי בבאפלו במדינת ניו-יורק שבארה"ב (יוני 2022), והירי בממפיס במדינת טנסי שבארה"ב (ספטמבר 2022). מאז הפיתוח של פרוטוקול CIP, ב-GIFCT הרחיבו את מסגרת התגובה לאירועים והוסיפו שכבה של אירועים הקשורים לתוכן לצורך מענה לפרסום תמונות וסרטונים שאינם בשידור חי, שאותם יוצרים מבצעי אירועים. האפשרות הזאת יושמה בפעם הראשונה בעקבות מתקפה באודייפור במדינת רג'סטאן שבהודו (יולי 2022).
GIFCT התפתח לארגון עצמאי עם מנכ"ל וצוות. המבנה הארגוני של GIFCT כולל ועדה מייעצת עצמאית שבה יש נציגי ממשל ונציגים אזרחיים, כולל שדולות, מומחים לזכויות אדם, חוקרים ומומחים טכניים. במסגרת ההנהלה החדשה של הארגון, ל-YouTube יש תפקיד במועצת התפעול של GIFCT.
אם משתמשים מפרסמים תוכן שקשור לטרור למטרה חינוכית, תיעודית, מדעית או אומנותית, אנחנו מעודדים אותם להקפיד לתת מספיק מידע כדי שהצופים יבינו את ההקשר. אסור לפרסם תוכן אלים או עקוב מדם שמטרתו העיקריות היא לזעזע, ליצור סנסציה או להציג תוכן חסר יסוד. אם בסרטון יש תוכן גרפי או קשה במיוחד, יש לאזן אותו עם הקשר נוסף ועם מידע נוסף שיעזור לצופים להבין מה הם רואים. מידע זה יכול להיות מבוא, קריינות או שכבות טקסט בנוסף לכותרת ותיאור ברורים. הקשר תיעודי או חינוכי יכול לעזור לצופה ולבודקים שלנו להבין מדוע לפעמים ממשיכים להציג ב-YouTube תוכן שנחשב מטריד. לדוגמה, אם עיתונאי מצלם מקרה בו מכים מפגינים והוא מעלה אותו עם המידע הרלוונטי (תאריך, מיקום, הקשר וכו'), רוב הסיכויים שנאשר את התוכן. לעומת זאת, פרסום של אותו התוכן בלי מידע הקשרי או חינוכי עשוי להיחשב כחסר יסוד ואנו עשויים להסיר אותו מהאתר. אנו עשויים להוסיף הגבלת גיל או מסך אזהרה לתמונות גרפיות או שנויות במחלוקת.
בכל תחומי המדיניות שלנו, אנחנו ממשיכים להשקיע ברשת של יותר מ-300 שותפים מהממשל וארגונים לא ממשלתיים, שבזכות המומחיות שלהם תורמים ערך רב למערכות האכיפה שלנו, שכוללות למשל את תוכנית Priority Flagger. המשתתפים בתוכנית Priority Flagger מקבלים הדרכה בנושא האכיפה של הנחיות הקהילה של YouTube. הסימונים של המשתתפים בתוכנית מדויקים יותר מאלו של המשתמש הממוצע, לכן אנחנו נותנים להם עדיפות לצורך בדיקה. כדי לפתור בעיות מהר יותר, למשתתפים בתוכנית Priority Flagger יש קשר ישיר עם הצוות שלנו לנושאי מהימנות ובטיחות. תוכן שסומן על ידי משתתפים בתוכנית Priority Flagger כפוף לאותה מדיניות כמו תוכן שסומן על ידי כל משתמש אחר. התוכן נבדק באופן ידני על ידי הצוותים שלנו, שהוכשרו להחליט אם הוא מפר את הנחיות הקהילה שלנו וצריך להסיר אותו.
אלו דוגמאות לסרטונים שסומנו כמפרים באופן פוטנציאלי את הנחיות הקהילה שלנו. דוגמאות אלו מספקות הצצה אל טווח התוכן המסומן שאנו מקבלים, והן לא כוללות את התוכן כולו.
צופים ויוצרים מרחבי העולם משתמשים ב-YouTube כדי להביע את הרעיונות והדעות שלהם. הגישה של YouTube בנוגע לאחריות מסתמכת על ארבעה עקרונות: הסרה של תוכן המפר את ההנחיות, הבעת קול סמכותי, הפחתת ההמלצות על תוכן גבולי ותגמול יוצרים מהימנים.
מידע נוסף זמין באתר 'איך YouTube עובד' arrow_forward