تمام ارجاعات به قابلیت بحث‌برانگیز اسکن تصاویر CSAM در وب‌سایت اپل حذف شدند

شنبه ۲۷ آذر ۱۴۰۰ - ۱۱:۳۰
مطالعه 3 دقیقه
اپل در سکوت تمام ارجاعات به قابلیت CSAM را در صفحه وب ایمنی کودک خود حذف کرده است؛ اقدامی که نشان می‌دهد که طرح بحث برانگیز کوپرتینویی‌ها برای شناسایی تصاویر سوءاستفاده جنسی از کودکان در آیفون و آیپد ممکن است برای انتشار با تأخیر بیشتری مواجه شود.
تبلیغات

مدتی است اپل به‌دلیل رونمایی از ابزارهای ایمنی کودک با انتقاد برخی افراد و نهادها مواجه شده است؛ به‌طوری‌که غول دنیای فناوری چندی پیش تأیید کرد که با توجه به بازخورد مشتریان، گروه‌های غیر انتفاعی و حمایتی، محققان و دیگران در مورد این ابزارها، سبب شده است که برنامه‌هایش را برای اجرای ویژگی‌های مذکور به تأخیر بیندازد.

برای یادآوری، اپل ماه آگوست سال جاری میلادی ویژگی‌های جدید ایمنی کودکان را در سه بخش شامل اسکن تصاویر مبتنی‌بر آی‌کلاد کاربران برای شناسایی مواد سوء‌استفاده جنسی از کودکان (CSAM)، ایمنی ارتباطات برای هشدار به کودکان و والدین آن‌ها در هنگام دریافت یا ارسال عکس‌های جنسی واضح و راهنمای CSAM گسترده در دستیار هوشمند سیری و بخش سرچ رونمایی کرد که از قرار معلوم، به محافظت از افراد زیر ۱۷ سال در برابر مجرمان، متجاوزان و محدود کردن انتشار مواد سوءاستفاده جنسی از کودکان کمک می‌کند.

به‌طورکلی، نگرانی‌ها از این است که سیستم اپل آنچنان کارآمد نباشد و متعاقبا دولت‌های سرکوبگر آزادی‌بیان از این سیستم برای منافع خود استفاده کنند و دستگاه‌های تمامی افراد را با استفاده از پوشش شرکت‌های خصوصی برای دورزدن حمایت‌های قانون اساسی به‌کار گیرند. دراین‌میان، اپل در ابتدا سعی کرد با انتشار اطلاعات دقیق، به اشتراک گذاشتن سؤالات متداول، اسناد مختلف جدید، مصاحبه با مدیران شرکت و موارد دیگر، سوءتفاهم‌ها را از بین ببرد و به کاربران اطمینان بدهد که هیچ تخطی در این زمینه صورت نخواهد گرفت.

اما هنگامی که مشخص شد این اقدامات بی‌تأثیر است، اپل بازخورد منفی را پذیرفت و در ماه سپتامبر تأخیر در عرضه ویژگی‌ها را اعلام کرد تا به شرکت فرصت بدهد سیستم CSAM را بهبود ببخشد؛ اما مشخص نیست که بهبودها چه مواردی را شامل می‌شوند و چگونه نگرانی‌ها را برطرف می‌کنند. اپل همچنین اعلام کرده است که از درخواست دولت‌های اقتدارگرا برای گسترش سیستم تشخیص تصویر فراتر از تصاویر CSAM با قاطعیت خودداری می‌کند.

جالب است بدانید که اخیرا اپل در به‌روزرسانی iOS 15.2، ویژگی‌های ایمنی ارتباطات برای پیام‌ها که یکی از بخش‌های قابلیت‌های ایمنی کودکان محسوب می‌شود، فعال کرده؛ اما ظاهرا قابلیت CSAM را به‌دنبال سیلی از انتقادات دوباره به تعویق انداخته است. همان‌طور که گفته شد، غول دنیای فناوری استدلال می‌کرد که تصمیمش برای تأخیر براساس بازخورد مشتریان، گروه‌های مدافع، محققان و دیگران است و تصمیم گرفته در ماه‌های آینده زمان بیشتری را برای جمع‌آوری اطلاعات و ایجاد بهبودها قبل از انتشار این ویژگی‌های حیاتی ایمنی کودک اختصاص دهد.

بیانیه بالا چندی پیش به صفحه ایمنی کودکان این شرکت اضافه شد؛ اما اکنون همراه با تمام تمام ارجاعات به قابلیت CSAM حذف شده است. این قدام می‌تواند بدان معنی باشد که غول دنیای فناوری از ارائه قابلت مذکور صرف‌نظر کرده است. بااین‌حال، شین بائر، سخنگوی اپل اعلام کرده است که سیاست‌ها و برنامه‌های تشخیص CSAM این شرک از سپتامبر تغییر نکرده است و ویژگی یادشده در آینده ارائه خواهد شد.

تبلیغات
داغ‌ترین مطالب روز

نظرات

تبلیغات