דו"ח רולניק
00:55:08
העיתונאי גיא רולניק בתוכנית תחקירים חדשה על הקשר בין פוליטיקה לרשתות חברתיות. בפרק הבכורה: איך חמאס השתמש ברשתות החברתיות ככלי נשק נגד ישראל במתקפת הטרור של 7 באוקטובר?

תגובת מטא

מטא החברה ששולטת בפייסבוק, ווטסאפ ואינסטגרם קיבלה מאיתנו עשרות שאלות במסגרת בקשת התגובה, הנה תגובתה:

על הרצח של ברכה לוינסון ז״ל מניר עוז, ששודר בזמן אמת בפייסבוק, לא מסרה תגובה.

כך גם ביחס לטענות שעלו בקשר לפוסט של יואב אליאס ״הצל״.  מטא בחרה שלא להגיב בנימוק שהם "לא מגיבים על מקרים ספציפיים ולא מגיבים על שפה פנימית".

לא התקבלה תגובה ממטא גם להצעה שהפננו לעדי סופר תאני מנכ״לית פייסבוק בישראל להתראיין לתוכנית.

לעומת זאת נמסרה ממטא התגובה הבאה:

"אנחנו לא רוצים לראות דברי שנאה בפלטפורמות שלנו. אין לנו תמריץ לעשות שום דבר, חוץ מאשר להסיר אותם. אנחנו נוקטים בצעדים משמעותיים כדי לשמור על בטיחות, גם במחיר של פגיעה בשורת הרווח. אנחנו משקיעים בזה מיליארדי דולרים בשנה. יש לנו עשרות אלפי בודקים שמסירים תוכן שמפר את הכללים. אנו משתמשים בבינה מלאכותית כדי לזהות תוכן כזה ולהפחית את הפצתו. זה המאמץ המקיף ביותר להסרת דברי שנאה של כל חברת טכנולוגיה צרכנית גדולה - בפער גדול מהמקום השני".

לגבי תנאי ההעסקה של מסנני התוכן אומרים במטא:
אנו דורשים מכל החברות איתן אנו עובדים לספק לבודקי התוכן תמיכה של כוח אדם מיומן וביטוחי בריאות פרטיים. העובדים שם משתכרים מעל המקובל ואינם נדרשים לכסות מספר של פוסטים בפרק זמן מוגדר.

באשר לשאלה המהותית -  מדוע מטא אינה רואה עצמה אחראית לתוכן המועלה בפייסבוק, ווטסאפ ואינסטגרם  - לא נמסרה תגובה.

על מדיניות שמירת הפרטיות נמסר ממטא בתגובה:
״אנחנו מייחסים חשיבות כבדה לנושא פרטיות המשתמשים ועשינו רבות על מנת להפחית את כמות המידע שהפלטפורמות יכולות לגשת אליו. יש לנו עוד עבודה לעשות על מנת שאנשים יהיו בטוחים שהמידע שלהם מוגן.״

כך תגובת מטא שמוסרת גם את המידע הבא: ״הפסקנו להשתמש במערכת זיהוי הפנים בפייסבוק כחלק ממהלך רחב של החברה, שנועד להגביל את יכולות זיהוי הפנים בפלטפורמות שלנו״.

בתגובה לטבח במיאנמר נמסר בתגובה:
״מטא עומדת לצד הקהילה הבינלאומית במאמצים לגרום לאחראים לטבח במיאנמר לשאת באחריות לפשעיהם. במקביל אנו פועלים להבטיח בטיחות ויושרה במדינה ומשתפים פעולה עם ארגונים מקומיים ובינלאומיים על מנת לנהל סיכונים בתחום זכויות האדם״.

לסיום מוסרים ממטא ש״החברה הקימה חדר מצב מיוחד בעקבות מתקפת הטרור של חמאס  כדי להסיר תכנים ולהגביל הפצת מידע כוזב״ ומבטיחים כי ״נמשיך בעבודה זו ככל שהסכסוך נמשך".

בנוסף נאמר בתגובה כי

״ברבעון השלישי של 2023 הוסרו 827 מיליון חשבונות מזויפים בפייסבוק - ויותר מ-99% מהם נמצאו והוסרו על ידינו לפני שאנשים דיווחו עליהם״. התגובה נחתמת בהצהרה כי מטא ״פועלת כדי לעצור קמפיינים מתואמים שחותרים לבצע מניפולציה לדיון הציבורי״

מדוברות YouTube נמסר:

בעקבות מתקפת הטרור של חמאס בישראל והמלחמה שנמשכת מאז בישראל ובעזה, הסרנו יותר מ-85 אלף סרטונים פוגעניים וסגרנו יותר מ-4000 ערוצים. במקביל, המערכות שלנו ממשיכות לחבר אנשים לחדשות ומידע איכותי. הצוותים שלנו מנטרים תוכן פוגעני מסביב לשעון ונוקטים בפעולות מהירות במידת הצורך. 

הטבח ב-7 באוקטובר לווה במתקפת סייבר מתוכננת של עיצוב תודעה מתואם. מהטענות העלות בסרטים מדובר על קמפיין עיצוב התודעה הגדול בהיסטוריה. האם הנושא מוכר לכם? האם יש בידיכם מידע על השימוש שעשו מדינות עוינות לישראל ברשת שלכם על מנת להפיץ שקרים, מיסאינפורמציה ודיסאינפורמציה? אם כן, מה עשיתם על מנת להתמודד עם הנושא?

+

בסרטים נטען כי הקמפיינים לעיצוב תודעה המתרחשים ברשת נועדו ליצור כאוס בישראל. האם הנושא מוכר לכם? מה אתם עושים בנידון?

המדיניות שלנו (Hate Speech Policy) אוסרת על תוכן המכחיש, ממעיט בחשיבות או מקטין אירועים היסטוריים אלימים, כולל מתקפות הטרור של חמאס ב-7 באוקטובר בישראל, ואנחנו מסירים את התוכן הזה, תוך שימוש משולב בבודקים ובטכנולוגיה. אנחנו עשויים לעתים לאפשר קטעים המכילים סוג זה של חוכן, אך רק בהקשרים מסוימים, כמו בקטעים חדשותיים.

קבוצת ניתוח האיומים של TAG) Google) מזהה גורמים זדוניים וסוגרת את הערוצים והחשבונות שלהם, כולל עבור קמפיינים של דיסאינפורמציה, האקרים בגיבוי ממשלתי וניסיונות להונאה כלכלית.

  • TAG מפרסמת באופן קבוע את עלון ה-TAG, המספק עדכונים סביב קמפיינים מתואמים של ניסיונות השפעה שהופסקו בפלטפורמות שלנו, כולל YouTube. לדוגמה, באוקטובר 2023 נסגרו למעלה מ-20 ערוצים, כחלק מהחקירה שלנו על פעולות מתואמות שקשורות לאירן וקידמו נרטיבים אנטי-ישראליים ופרו-ממשלת אירן. 

בסרטים נטען כי הפיד של יוטיוב מוצג בצורה אלגוריתמית בשביל להתאים תוכן לכל אינדיבידואל מה שיוצר חיים בתוך בועה. מה תגובתכם?

+

בסרטים נטען כי יוטיוב מציפה תוכן יותר יותר רדיקלי למשל אינסלים, נאצים וכי אנשים עוברים רדיקליזציה ע"י התכנים שיוטיוב מעלה?

  • מערכת ההמלצות של YouTube בנויה על העיקרון הפשוט של לעזור לאנשים למצוא את הסרטונים שהם רוצים לצפות בהם ויתנו להם ערך.
  • מספר מחקרים שפורסמו טוענים כי ההמלצות של YouTube אינן מכוונות את הצופים לתוכן קיצוני. צריכה של חדשות ותוכן פוליטי ב-YouTube משקפת באופן כללי יותר את ההעדפות האישיות שניתן לראות בכל ההרגלים של הצופים ברשת: 

* חוקרים בהרווארד ובאוניברסיטת פנסילבניה לא מצאו ראיות לכך ש"תאי הדהוד" ("חיים בתוך בועה") נוצרים בעקבות ההמלצות של YouTube. 

* בנוסף, מחקר שנערך לאחרונה (יולי 2023) ע"י הליגה נגד השמצה, ADL, מצא שמערכת ההמלצות של YouTube הייתה היחידה מבין הפלטפורמות שלא המליצו על תוכן ש-ADL סיווג כאנטישמי

 

האלגוריתם של הרשת מעודד שנאה, קיטוב ושסע. מה תגובתכם?

+

מהי מדיניות של הסרת התכנים של הרשת? כיצד היא מיושמת? מי אמון על בדיקת תכנים ברשת בעברית? מהם המדדים שלפיהם נקבע איזה תוכן יוסר ואיזה תוכן יושאר בפלטפורמה?

+

האם קיים מסמך המאגד את כללי הרשת? מי עורך אותו, מי מעדכן אותו, מי מיישם אותו, איזה הכשרה מקבלים האנשים המיישמים אותו, מדוע אינו חשוף לציבור?

  • הנחיות הקהילה שלנו זמינות ברשת, קובעות מה מותר ב-YouTube, וחלות על כולם ברחבי העולם ועל כל צורות התוכן - ללא קשר לשפה, מקום או איך התוכן נוצר. הן מכסות מספר תחומים כולל דברי שטנה, קיצוניות אלימה, אלימות גרפית ומידע מטעה.
  • עוד על האופן שבו אנחנו מפתחים ומעדכנים את המדיניות שלנו כאן.

 

מדוברות Google: 

האם אירועי הדמים מיום שבת 7.10 צוינו בחברה בדרך כלשהי?

כן. עוד מידע כאן

 

 

}