تمام ارجاعات به قابلیت بحثبرانگیز اسکن تصاویر CSAM در وبسایت اپل حذف شدند
مدتی است اپل بهدلیل رونمایی از ابزارهای ایمنی کودک با انتقاد برخی افراد و نهادها مواجه شده است؛ بهطوریکه غول دنیای فناوری چندی پیش تأیید کرد که با توجه به بازخورد مشتریان، گروههای غیر انتفاعی و حمایتی، محققان و دیگران در مورد این ابزارها، سبب شده است که برنامههایش را برای اجرای ویژگیهای مذکور به تأخیر بیندازد.
برای یادآوری، اپل ماه آگوست سال جاری میلادی ویژگیهای جدید ایمنی کودکان را در سه بخش شامل اسکن تصاویر مبتنیبر آیکلاد کاربران برای شناسایی مواد سوءاستفاده جنسی از کودکان (CSAM)، ایمنی ارتباطات برای هشدار به کودکان و والدین آنها در هنگام دریافت یا ارسال عکسهای جنسی واضح و راهنمای CSAM گسترده در دستیار هوشمند سیری و بخش سرچ رونمایی کرد که از قرار معلوم، به محافظت از افراد زیر ۱۷ سال در برابر مجرمان، متجاوزان و محدود کردن انتشار مواد سوءاستفاده جنسی از کودکان کمک میکند.
بهطورکلی، نگرانیها از این است که سیستم اپل آنچنان کارآمد نباشد و متعاقبا دولتهای سرکوبگر آزادیبیان از این سیستم برای منافع خود استفاده کنند و دستگاههای تمامی افراد را با استفاده از پوشش شرکتهای خصوصی برای دورزدن حمایتهای قانون اساسی بهکار گیرند. دراینمیان، اپل در ابتدا سعی کرد با انتشار اطلاعات دقیق، به اشتراک گذاشتن سؤالات متداول، اسناد مختلف جدید، مصاحبه با مدیران شرکت و موارد دیگر، سوءتفاهمها را از بین ببرد و به کاربران اطمینان بدهد که هیچ تخطی در این زمینه صورت نخواهد گرفت.
اما هنگامی که مشخص شد این اقدامات بیتأثیر است، اپل بازخورد منفی را پذیرفت و در ماه سپتامبر تأخیر در عرضه ویژگیها را اعلام کرد تا به شرکت فرصت بدهد سیستم CSAM را بهبود ببخشد؛ اما مشخص نیست که بهبودها چه مواردی را شامل میشوند و چگونه نگرانیها را برطرف میکنند. اپل همچنین اعلام کرده است که از درخواست دولتهای اقتدارگرا برای گسترش سیستم تشخیص تصویر فراتر از تصاویر CSAM با قاطعیت خودداری میکند.
جالب است بدانید که اخیرا اپل در بهروزرسانی iOS 15.2، ویژگیهای ایمنی ارتباطات برای پیامها که یکی از بخشهای قابلیتهای ایمنی کودکان محسوب میشود، فعال کرده؛ اما ظاهرا قابلیت CSAM را بهدنبال سیلی از انتقادات دوباره به تعویق انداخته است. همانطور که گفته شد، غول دنیای فناوری استدلال میکرد که تصمیمش برای تأخیر براساس بازخورد مشتریان، گروههای مدافع، محققان و دیگران است و تصمیم گرفته در ماههای آینده زمان بیشتری را برای جمعآوری اطلاعات و ایجاد بهبودها قبل از انتشار این ویژگیهای حیاتی ایمنی کودک اختصاص دهد.
بیانیه بالا چندی پیش به صفحه ایمنی کودکان این شرکت اضافه شد؛ اما اکنون همراه با تمام تمام ارجاعات به قابلیت CSAM حذف شده است. این قدام میتواند بدان معنی باشد که غول دنیای فناوری از ارائه قابلت مذکور صرفنظر کرده است. بااینحال، شین بائر، سخنگوی اپل اعلام کرده است که سیاستها و برنامههای تشخیص CSAM این شرک از سپتامبر تغییر نکرده است و ویژگی یادشده در آینده ارائه خواهد شد.