-
צילום: רויטרס, כאן חדשות

מסמכי פייסבוק: מהנדסי החברה מודים שנכשלו במניעת הפצה של ביטויי שנאה

המדיניות הרשמית של החברה היא שכלי בינה מלאכותית הם שינטרו ויחסמו הפצה של הסתה ברשת. אבל לפי מסמכים פנימיים שנחשפו בוול סטריט ג'ורנל, בחברה יודעים שזה לא באמת עובד
בר שפר
17 באוקטובר 2021
18:37

תחקיר הוול סטריט ג'ורנל: מהנדסי פייסבוק סקפטיים לגבי יכולתה לעמוד בהבטחה שבינה מלאכותית תזהה ותטפל בגילויי שנאה, כך עולה ממסמכים שהגיעו לידי העיתון. המדיניות המוצהרת של החברה, בכל פעם שעולות תלונות על הסתה ברשתות, היא שאלגוריתם הוא זה שינטר את הפעילות האסורה ברשת - אולם בתוכה יש מי שמודים שזה לא עובד. 

תאגיד הענק הבטיח שיכולת בינה מלאכותית תוכל לזהות ולטפל בגילויי שנאה, פוסטים אלימים שמופצים ברשת החברתית ואפילו משתמשים מתחת לגיל המותר. לפי מסמכים פנימיים החברה מודה כי הבינה המלאכותית לא מצליחה לעשות זאת והצלחתה היא מינימלית.

לפי המסמכים, הבינה המלאכותית לא מצליחה לזהות סרטוני ירי וביטויי שנאה. צוות המחקר גילה כי פייסבוק מוחקת רק אחוז מאוד קטן מהפוסטים המפיצים שנאה ופייסבוק תעדיף להשאיר את הפוסטים מאשר למחוק אותם ואולי לטעות בהסרת תוכן לגיטימי.

בחודש שעבר פרסם העיתון את הפרק הקודם בתחקיר, בו נחשף שהרשת החברתית בנתה מערכת שפוטרת משתמשים בעלי פרופיל גבוה מתנאי השימוש ומאפשרת להם לפרסם פוסטים פוגעניים, לעיתים כולל התבטאויות אלימות, או לבצע הפרות אחרות של מדיניות החברה.