דלג לתוכן הראשי

מלחמה ב-CSAM

CSAM הוא קיצור של "תוכן המתאר פגיעה מינית בילדים." זהו כל תוכן חזותי – כולל תצלומים, סרטונים, ותמונות שנוצרו באמצעים ממוחשבים – המייצג קטין המעורב בהתנהגות מינית בוטה. אנו מפרשים את המונח CSAM לפי הגדרת הממשל הפדרלי של ארה"ב ל"פורנוגרפיית ילדים". חשוב לציין כי CSAM אינו זהה לעירום של ילדים, והמערכות שלנו מתוכננות באופן ייחודי כך שיוכלו להבדיל בין תמונות לא מזיקות, כגון ילדים המשחקים בבריכה, לבין תמונות שיש בהן התעללות מינית או הצגה תאוותנית בניגוד לחוק.

מה IMS - Network עושה כשהיא מזהה CSAM בפלטפורמה שלה?

מדיניות אפס סובלנות

אנו מפעילים מדיניות אפס סובלנות כלפי כל צורה של CSAM בפלטפורמה שלנו. כל משתמש שינסה להשתמש בשירותים שלנו לפרסום או הפצה של חומרי התעללות מינית בילדים (CSAM) יוסר מיידית וללא התראה מכל המערכות שלנו.

בכל המערכות שלנו, כולל כאלו שאינן בבעלותנו הישירה, מותקנות מערכות זיהוי מתקדמות המתמחות בזיהוי ותיעוד של תוכן מיני הכולל CSAM. כאשר המערכת מזהה תוכן כזה, היא פועלת באופן מיידי להסרת המשתמש החשוד מהפלטפורמה ומתריעה באופן אוטומטי לרשויות האכיפה המוסמכות, תוך אספקת כל המידע הנדרש לשם פתיחת חקירה מיידית. אנו ננקוט בצעדים משפטיים ופליליים חמורים כנגד המשתמש, עד למיצוי הדין.

אזהרה חמורה

יש לנו אפס סובלנות למשתמשים המנצלים את הפלטפורמה שלנו לפרסום, הפצה או סחר בתוכן המכיל CSAM. כל עבירה בתחום זה תטופל ביד חזקה וללא פשרות.

מקורות ושותפויות

אנו פועלים בשיתוף פעולה עם ארגונים בינלאומיים מובילים למלחמה ב-CSAM, כגון:

אנו מחויבים להמשיך ולהגביר את מאמצינו במלחמה ב-CSAM, ולספק סביבה בטוחה, מוגנת וחוקית לכל המשתמשים שלנו.