محققان امنیتی قابلیت ایمنی کودکان اپل را خطرناک، تهاجمی و بی‌اثر توصیف می‌کنند

شنبه ۲۴ مهر ۱۴۰۰ - ۱۰:۴۵
مطالعه 3 دقیقه
در جدیدترین انتقادات به ابزارهای ایمنی کودک اپل، جمعی از محققان امنیتی سیاست اپل در این قبال را خطرناک و بی‌اثر توصیف کردند.
تبلیغات

مدتی است اپل به دلیل رونمایی از ابزارهای ایمنی کودک با انتقاد برخی افراد و نهادها مواجه شده است؛ به‌طوری‌که غول دنیای فناوری چندی پیش تأیید کرد که با توجه به بازخورد مشتریان، گروه‌های غیر انتفاعی و حمایتی، محققان و دیگران در مورد این ابزارها، سبب شده است که برنامه‌هایش را برای اجرای ویژگی‌های مذکور به تأخیر بیندازد. در جدیدترین اقدام، بیش از ده‌ها متخصص برجسته امنیت سایبری از اپل به دلیل اتکا به فناوری خطرناک در طرح بحث‌برانگیز تشخیص تصاویر سوءاستفاده جنسی از کودکان انتقاد کردند.

انتقاد یادشده در مطالعه‌ی ۴۶ صفحه‌ای محققان انجام شد که برنامه‌های اپل و اتحادیه اروپا برای نظارت بر گوشی‌های هوشمند کاربران از منظر غیر قانونی را بررسی می‌کردند. محققان تلاش‌ها را ناکارآمد و سیاست اپل در این قبال را اقدامی خطرناک توصیف کردند که احتمالاً منجر به نظارت دولت‌ها خواهد شد.

برای یادآوری، اپل ماه آگوست ویژگی‌های جدید ایمنی کودکان را در سه حوزه شامل اسکن تصاویر مبتنی بر آی‌کلاد کاربران برای شناسایی مواد سوء‌استفاده جنسی از کودکان (CSAM)، ایمنی ارتباطات برای هشدار به کودکان و والدین آن‌ها در هنگام دریافت یا ارسال عکس‌های جنسی واضح و راهنمای CSAM گسترده در دستیار هوشمند سیری و بخش سرچ رونمایی کرد که از قرار معلوم، به محافظت از افراد زیر ۱۷ سال در برابر مجرمان، متجاوزان و محدود کردن انتشار مواد سوءاستفاده جنسی از کودکان کمک می‌کند.

به گفته محققان، اسناد منتشرشده از سوی اتحادیه اروپا نشان می‌دهد که هیئت حاکمِ اتحادیه به دنبال برنامه‌ای مشابه است که گوشی‌های رمزگذاری‌شده را برای سوءاستفاده جنسی از کودکان و همچنین نشانه‌های جنایت سازمان‌یافته و تصاویر مرتبط با تروریسم اسکن می‌کند. محققان خاطرنشان می‌کنند که باید در مقابل تلاش برای جاسوسی و تأثیرگذاری بر شهروندان مطیع قانون، اولویت امنیت ملی باشد.

راس اندرسون، استاد مهندسی امنیت در دانشگاه کمبریج و یکی از اعضای این گروه، می‌گوید با این دست از اقدامات، قدرت‌ نظارتی دولت‌ها از خط قرمز عبور می‌کند. علاوه بر نگرانی‌های مربوط به نظارت، یافته‌های محققان نشان می‌دهد که این فناوری در شناسایی تصاویر سوءاستفاده جنسی از کودکان مؤثر نخواهد بود. به گفته آن‌ها، چند روز پس از اعلام اپل، مردم به راه‌هایی برای جلوگیری از تشخیص با ویرایش جزئی تصاویر روی آورده‌اند.

سوزان لاندائو، استاد امنیت سایبری و سیاست در دانشگاه تافتز، می‌گوید: «این [ابزارها] امکان اسکن یک دستگاه خصوصی شخصی را بدون هیچ دلیل احتمالی برای انجام هرگونه کار نامشروع فراهم می‌کند و این فوق‌العاده خطرناک است. این برای تجارت، امنیت ملی، امنیت عمومی و حریم خصوصی خطرناک است.» محققان امنیت سایبری می‌گویند مطالعه خود را قبل از اعلام اپل آغاز کرده بودند و اکنون یافته‌هایشان را منتشر می‌کنند تا اتحادیه اروپا را از خطرات برنامه‌های مشابه خود مطلع کنند.

همان‌طور که در ابتدا گفته شد، اپل با انتقاد قابل توجهی از سوی حامیان حریم خصوصی، محققان امنیتی، متخصصان رمزنگاری، دانشگاهیان، سیاستمداران و حتی کارکنان داخل شرکت به دلیل تصمیم خود برای استفاده از این فناوری در به‌روزرسانی آینده iOS 15 و iPadOS 15 روبه‌رو شده است. این شرکت در ابتدا سعی کرد با انتشار اطلاعات دقیق، به اشتراک گذاشتن سؤالات متداول، اسناد مختلف جدید، مصاحبه با مدیران شرکت و موارد دیگر، سوءتفاهم‌ها را از بین ببرد و به کاربران اطمینان بدهد که هیچ تخطی در این زمینه صورت نخواهد گرفت.

اما هنگامی که مشخص شد این اقدامات بی‌تأثیر است، اپل بازخورد منفی را پذیرفت و در ماه سپتامبر تأخیر در عرضه ویژگی‌ها را اعلام کرد تا به شرکت فرصت بدهد سیستم CSAM را بهبود ببخشد؛ اما مشخص نیست که بهبودها چه مواردی را شامل می‌شوند و چگونه نگرانی‌ها را برطرف می‌کنند. اپل همچنین اعلام کرده است که از درخواست دولت‌های اقتدارگرا برای گسترش سیستم تشخیص تصویر فراتر از تصاویر CSAM با قاطعیت خودداری می‌کند.

برای مطالعه‌ی تمام مقالات مرتبط با اپل به این صفحه مراجعه کنید.

تبلیغات
داغ‌ترین مطالب روز

نظرات

تبلیغات