این سرویس جدید، حذف تصاویر غیراخلاقی نوجوانان را از اینستاگرام امکان‌پذیر می‌کند

چهارشنبه ۱۰ اسفند ۱۴۰۱ - ۱۳:۵۰
مطالعه 3 دقیقه
اینستاگرام زومیت
متا (مالک اینستاگرام) به‌همراه چند شرکت دیگر پلتفرم جدیدی توسعه داده است که از طریق آن می‌توان تصاویر غیراخلاقی افراد زیر سن قانونی را حذف کرد.
تبلیغات

مرکز ملی کودکان گم‌شده و استثمارشده (NCMEC) پلتفرم جدیدی برای حذف تصاویری که در آن‌ها از افراد زیر سن قانونی سوءاستفاده‌ی جنسی می‌شود، معرفی کرده است. متا (شرکت مادر اینستاگرام و واتساپ) در بیانیه‌ای می‌گوید به NCMEC برای راه‌اندازی ابزار رایگان Take It Down کمک مالی کرده است.

سرویس جدید مرکز NCMEC به کاربران امکان می‌‌دهد که به‌صورت ناشناس تصاویر یا ویدیوهایی را که در آن‌ها افراد زیر سن قانونی «به‌صورت برهنه یا نیمه‌برهنه دیده می‌شوند یا از آن‌ها سوءاستفاده‌ی جنسی می‌شود»، از پلتفرم‌های آنلاین حذف کنند. از طریق این ابزار می‌توان جلوی انتشار مجدد تصاویر و ویدیوها را گرفت.

متا می‌گوید فیسبوک و اینستاگرام (به‌همراه پیام‌رسان فیسبوک مسنجر و بخش دایرکت اینستاگرام) از ابزار Take It Down پشتیبانی می‌کنند. در بین فهرست پلتفرم‌های تحت پشتیبانی نام سرویس‌های دیگری مثل OnlyFans و Yubo و سایت‌های غیراخلاقی نیز دیده می‌شود.

افراد زیر سن قانونی می‌توانند با مراجعه به پلتفرم Take It Down تصاویر و ویدیوهای خود را گزارش کنند. NCMEC می‌گوید این امکان برای افراد بزرگسالی که تصاویر و ویدیوهای دوران زیر ۱۸ سالگی آن‌ها پخش شده نیز فراهم است. والدین و بزرگ‌سالان مورداعتماد نیز می‌توانند تصاویر و ویدیوهای افراد زیر ۱۸ سال را گزارش و آن‌ها را حذف کنند.

بر اساس گزارش ورج، کاربرانی که به دنبال حذف عکس یا ویدیویی به خصوص هستند، باید آن محتوا را روی دستگاه خود داشته باشند. عکس یا فیلم موردبحث در فرآیند درخواست حذف محتوا ثبت نمی‌شود و به همین دلیل، کاملا خصوصی باقی می‌ماند.

NCMEC از عکس یا فیلم حاوی محتوای غیراخلاقی برای ساخت هَش استفاده می‌کند. هش، نوعی اثرانگشت دیجیتالی منحصربه‌فرد است که به هر عکس یا ویدیو نسبت داده می‌شود. کاربر می‌تواند این هش را در اختیار پلتفرم‌ها قرار دهد تا آن‌ها برای حذف محتوا اقدام کنند.

مدیرعامل NCMEC می‌گوید: «ما سیستم جدید را به این دلیل خلق کردیم که بسیاری از کودکان با این شرایط ناامیدکننده روبه‌رو هستند. امیدواریم که کودکان از وجود این سرویس مطلع شوند و احساس آرامش کنند که ابزارهایی برای حذف این تصاویر وجود دارد. NCMEC اینجا است که به آن‌ها کمک کند.»

Take It Down با سرویس StopNCII سازگاری دارد، سرویسی که در سال ۲۰۲۱ با هدف جلوگیری از پخش تصاویر و فیلم‌های غیراخلاقی افراد بالای ۱۸ سال بدون جلب رضایت آن‌ها، راه‌اندازی شد. StopNCII به شیوه‌ای مشابه از هش برای شناسایی و حذف محتواهای غیراخلاقی در فیسبوک، اینستاگرام، تیک تاک و بامبل استفاده می‌کند.

متا افزون‌بر اطلاع‌رسانی درباره‌ی مشارکت در پروژه‌ی جدید NCMEC، می‌گوید قابلیت‌های حریم خصوصی جدیدی برای اینستاگرام و فیسبوک منتشر کرده است تا از افراد زیر ۱۸ سال که مشغول استفاده از این پلتفرم‌ها هستند محافظت کند.

ازاین‌پس نوجوانان به هنگام بلاک کردن حساب افراد بزرگ‌سالی که مشکوک به رفتار غیراخلاقی هستند، نوتیفیکیشنی دریافت می‌کنند که به آن‌ها می‌گوید حساب را به ادمین‌های اینستاگرام گزارش کنند. همچنین افراد بزرگسالی که پیش‌تر توسط نوجوانان بلاک شده‌اند، گزینه‌ی Message را در حساب اینستاگرام افراد نوجوان نخواهند دید. متا همچنین تنظیمات حریم خصوصی سخت‌گیرانه‌تری برای کاربران زیر ۱۶ سال (یا در برخی کشورها زیر ۱۸ سال) در فیسبوک اعمال می‌کند.

سایر پلتفرم‌هایی که در پروژه‌ی جدید NCMEC مشارکت کرده‌اند، به‌طور مجزا اقداماتی برای جلوگیری از پخش تصاویر غیراخلاقی افراد زیر ۱۸ سال انجام داده‌اند. Yubo، شبکه‌ی اجتماعی فرانسوی، ابزارهای مدیریتی جدیدی بر پایه‌ی هوش مصنوعی دارد که می‌توانند محتواهای جنسی را شناسایی کنند.

یک گزارش در سال ۲۰۲۱ نشان داد که کودکان به راحتی می‌توانند سیستم بررسی سن پلتفرم OnlyFans را دور بزنند. در همان سال ۳۴ قربانی پخش عکس و فیلم جنسی، از یکی از سایت‌های غیر اخلاقی شکایت کردند. قربانیان گفتند وب‌سایت موردبحث به‌طور آگاهانه از ویدیوهایی که حاوی صحنه‌های سوءاستفاده‌ی جنسی از کودکان و تجاوز بوده‌اند، درآمد کسب کرده است. گزارشی دیگر ادعا کرد Yubo بستری برای برقراری ارتباط با افراد زیر ۱۸ سال و تجاوز به آن‌ها برای سوءاستفاده‌گران جنسی فراهم کرده است.

تبلیغات
داغ‌ترین مطالب روز

نظرات

تبلیغات