اپل اینتلیجنس / Apple Intelligence

Private Cloud Compute؛ ابتکار اپل برای امنیت هوش مصنوعی

اپل: ما استاندارد کاملاً متفاوتی را برای امنیت هوش مصنوعی تعریف کرده‌ایم
چهارشنبه ۲۳ خرداد ۱۴۰۳ - ۱۶:۱۳مطالعه 9 دقیقه
اپل با معرفی سیستم «رایانش ابری خصوصی» (PCC) مدعی است «پیشرفته‌ترین معماری امنیتی» را برای پردازش درخواست‌های هوش مصنوعی توسعه داده است.
تبلیغات

اپل خیلی دیر به رقابت هوش مصنوعی پیوست؛ آن‌قدر دیر که این تصور ایجاد شد که کوپرتینونشین‌ها از هوش مصنوعی یا دست‌کم از هیاهوی آن بیزارند؛ تصوری که پربی‌راه نیست. اپل در رویداد WWDC 2024 فقط سه‌بار از عبارت «هوش مصنوعی» استفاده کرد (مقایسه کنید با ۱۲۱ بار گوگل در مراسم I/O امسال) و در موارد دیگر، برای اشاره به قابلیت‌های هوش مصنوعی که حالا در سرتاسر اکوسیستم اپل جا خوش کرده‌اند، اصطلاح «هوش اپل»‌ (Apple Intelligence) را به کار برد.

اپل مدعی است هوش مصنوعی آن‌ها امن‌ترین هوش مصنوعی دنیا است

ازنظر بسیاری، ازجمله سامسونگ، «هوش اپل» صرفا نوعی بازی زیرکانه با کلمات برای شرکتی است که می‌داند در حوزه‌ی هوش مصنوعی از رقبا عقب مانده‌، اما نمی‌خواهد این حس عقب‌ماندگی را در ذهن کاربرانش تداعی کند. اما از نظر خود اپل، هوش مصنوعی این شرکت تفاوت بنیادینی با سایر شرکت‌ها ازجمله OpenAI و گوگل دارد و به همین خاطر نیازمند نام‌گذاری متفاوتی بوده است. اپل مدعی است هوش مصنوعی آن‌ها امن‌ترین هوش مصنوعی دنیا است.

اما منظور اپل از هوش مصنوعی امن چیست و آیا اصلا می‌شود به این ادعا اطمینان کرد؟ تقریبا هیچ‌یک از قابلیت‌های هوش مصنوعی اپل جدید و تکان‌دهنده نبودند و کاربران قبلا مشابه آن‌‌ها را در محصولات مایکروسافت، اوپن‌ای‌آی، گوگل و سامسونگ تجربه کرده بودند. آیا اپل صرفا دنبال راهی برای متمایز کردن خود از رقبا است یا واقعا چیزی به نام هوش مصنوعی امن با حفاظت صددرصدی از اطلاعات کاربر وجود دارد؟

«رایانش ابری خصوصی»؛ ابتکار اپل برای حفظ امنیت پردازش‌های ابری

اپل در مطلب بلندبالایی با‌عنوان «رایانش ابری خصوصی: مرزی جدید برای حفظ حریم خصوصی هوش مصنوعی در فضای ابری» به توضیح سیستمی به‌نام «Private Cloud Compute» می‌پردازد و معتقد است PCC با تیکه بر تراشه‌ی اختصاصی اپل و سیستم‌‌عاملی که با تمرکز بر حریم شخصی طراحی شده، «پیشرفته‌ترین معماری امنیتی است که تاکنون برای محاسبات هوش مصنوعی ابری در مقیاس بزرگ» به کار گرفته شده است.

اپل اینتلیجنس سیستم هوش مصنوعی است که مدل‌های مولد قدرتمندی را به آیفون، آیپد و مک می‌آورد. برای ویژگی‌های پیشرفته‌ای که نیاز به پردازش داده‌های پیچیده با مدل‌های زبانی بزرگ‌تر دارد، ما سیستم «رایانش ابری خصوصی»‌ (PCC) را ایجاد کرده‌ایم؛ سیستم هوش ابری انقلابی که به‌طورویژه برای پردازش هوش مصنوعی به‌روشی امن و خصوصی طراحی شده است. PCC برای اولین بار امنیت و حریم خصوصی برتر دستگاه‌های اپل را به فضای ابری می‌آورد تا مطمئن شود داده‌های شخصی کاربر جز برای او، برای هیچ کسی حتی اپل دردسترس نیست.

دغدغه‌های حریم خصوصی هوش مصنوعی

اجرای مدل‌های مبتنی‌بر هوش مصنوعی به قدرت پردازش فوق‌العاده‌ای نیاز دارد که از پس اکثر گوشی‌های هوشمند یا رایانه‌های شخصی برنمی‌آید. برای حل این مشکل، بسیاری از شرکت‌های هوش مصنوعی، مدل‌های خود را به‌جای دیوایس‌های کم‌توان کاربران، در سرورهای ابری قدرتمند خود اجرا می‌کنند؛ به همین دلیل است که می‌توانید حتی در ضعیف‌ترین کامپیوتر، از کوپایلت مایکروسافت بخواهید درخواست‌های متنی‌تان را در عرض چند ثانیه به تصاویر هوش مصنوعی تبدیل کند. اما نکته‌ی منفی ماجرا این است که حالا مایکروسافت به درخواست‌هایی که برای کوپایلت می‌فرستید، دسترسی کامل دارد.

قابلیت‌های هوش مصنوعی اپل

البته مایکروسافت برای اینکه بتواند مشکل حریم شخصی پردازش‌های هوش مصنوعی را تاحدودی حل کند، از «کوپایلت‌ پلاس پی‌سی» رونمایی کرد؛ نسل جدیدی از کامپیوترهای مجهزبه تراشه‌های قدرتمند که می‌توانند بسیاری از درخواست‌های هوش مصنوعی را به‌طور محلی و بی‌نیاز از سرورهای ابری پردازش کنند.

اجرای مدل‌های هوش مصنوعی به قدرت پردازش فوق‌العاده‌ای نیاز دارد

از آن سو، دستگاه‌های جدید اپل ازجمله سری آیفون ۱۵ پرو و مک‌ها و آیپدهای مجهز به تراشه‌های سری M به‌اندازه‌ای قدرتمند هستند که بسیاری از درخواست‌های هوش مصنوعی را روی خود دستگاه پردازش کنند تا بدین‌ترتیب، خیال کاربران بابت امنیت اطلاعاتشان راحت باشد.

اما تراشه‌های اپل و حتی تراشه‌های جدید اسنپدراگون ایکس الیت به‌کاررفته در پی‌سی‌های «کوپایلت‌ پلاس» نمی‌توانند از پس پردازش تمام درخواست‌های هوش مصنوعی برآیند و گاهی لازم است اطلاعات کاربر به سرورهای ابری فرستاده شود. دراین‌حالت، غول‌های دنیای فناوری به این درخواست‌ها دسترسی دارند و حتی ممکن است آن‌ها در سرورهای خود ذخیره کرده یا برای آموزش مدل‌های هوش مصنوعی به کار ببرند؛ بااین‌حال، اپل مدعی است سیستمی که برای پردازش درخواست‌های هوش مصنوعی در سرور ابری توسعه داده به‌طرز چشم‌گیری با روش شرکت‌های دیگر ازجمله OpenAI و گوگل متفاوت است.

تضمین‌های حریم خصوصی اپل

کریگ فدریگی، قائم‌مقام ارشد تیم مهندسی نرم‌افزار اپل که نظارت بر توسعه‌ی iOS و macOS را برعهده دارد، در مصاحبه‌ی جدیدی با FastCompany به این نکته اشاره کرد که سرویس‌های هوش مصنوعی و چت‌بات‌ها سیاست‌های متفاوتی را در پردازش داده دنبال می‌کنند و برخی از ضمانت‌هایی که برای محافظت از اطلاعات کاربر ارائه می‌دهند، محدودیت‌های زیادی دارد.

ما می‌خواستیم استاندارد کاملاً متفاوتی را (برای امنیت هوش مصنوعی) تعریف کنیم. برای همین، این استاندارد را به‌عنوان اصلی بنیادی و شرط لازم برای ارائه‌ی قابلیت‌های هوش مصنوعی در نظر گرفتیم، به‌شکلی که اطلاعات شخصی شما کاملاً متعلق به خودتان باقی بماند و تحت کنترل شما باشد. و هیچ کس، حتی اپل، هیچ‌گونه دسترسی به آن اطلاعات نخواهد داشت، حتی اگر درخواست‌های کاربر در دیتاسنترهای ما در پردازش شوند.

اما اپل چطور می‌خواهد امنیت اطلاعاتی را که در سرورهای ابری این شرکت پردازش می‌شوند، تضمین کند؟

اپل می‌گوید زمانی‌که کاربر درخواستی را برای پردازش ارسال می‌کند، اپل اینتلیجنس تشخیص می‌دهد که آیا این درخواست می‌تواند روی دستگاه پردازش شود یا خیر. اگر به ظرفیت محاسباتی بیشتری نیاز باشد، درخواست به سرور ابری PCC فرستاده می‌شود. به‌گفته‌ی اپل، اطلاعات کاربر پس از پردازش، در این سرور ذخیره نمی‌شود، به‌طور رمزنگاری‌شده از بین می‌رود و برای اپل قابل‌دسترسی نیست.

اپل در ادامه توضیح می‌دهد که سرورهای مبتنی‌بر تراشه‌های اختصاصی اپل که سنگ‌بنای PCC را فراهم می‌کنند، «امنیت ابری بی سابقه‌ای» را ارائه می‌دهند:

  • این امنیت با Secure Enclave آغاز می‌شود که از کلیدهای رمزنگاری مهم در سرور محافظت می‌کند، درست به همان شکل که از اطلاعات کاربران در آیفون محافظت می‌کند.
  • مرحله‌ی بعدی، Secure Boot است که درست مانند iOS، مطمئن می‌شود سیستم‌عامل درحال اجرا در سرور، امضا‌شده و موردتایید اپل است.
  • در مرحله‌ی سوم، Trusted Execution Monitor مطمئن می‌شود که فقط کد‌های امضا‌شده و موردتایید اجرا می‌شوند و Attestation (گواهی ایمنی) به دستگاه کاربر امکان می‌دهد هویت و پیکربندی خوشه‌ی رایانش ابری خصوصی را قبل از ارسال درخواست، به‌ روشی امن تایید کند.
  • و در آخر، برای تایید وعده‌ی حریم خصوصی اپل، کارشناسان مستقل اجازه دارند کدی را که در سرورهای PCC در حال اجرا است، بررسی کنند.

اپل در پست دیگری می‌گوید «رایانش ابری خصوصی» را با درنظر گرفتن اصول زیر توسعه داده است تا «امنیت و حریم خصوصی اطلاعات کاربران» را تضمین کند:‌

۱. پردازش بدون وضعیت؛ PCC از داده‌های شخصی کاربران فقط برای انجام درخواست‌های آن‌ها استفاده می‌کند و این داده‌ها را پس از پردازش، ذخیره نمی‌کند و اطمینان می‌دهد که این داده‌ها هرگز برای هیچ کس دیگر، حتی کارکنان اپل، قابل‌دسترسی نخواهند بود.

۲. تضمین‌های قابل‌اجرا؛ تمام مولفه‌هایی که به امنیت و حریم خصوصی PCC کمک می‌کنند، باید از لحاظ فنی قابل‌اجرا و تجزیه‌وتحلیل باشند و به مولفه‌های خارجی مانند متعادل‌کننده‌های بار که ترافیک شبکه را بین چندین سرور تقسیم می‌کنند و ممکن است هنگام اشکال‌زدایی، اطلاعات کاربر را به خطر بیندازند، متکی نباشند.

۳. عدم دسترسی ممتاز؛ PCC نباید دارای رابط‌های ممتازی باشد که به کارکنان اپل اجازه دهد تضمین‌های حریم خصوصی را در شرایط خاص دور بزنند؛ حتی اگر این شرایط مربوط به رفع مشکلات جدی باشد.

۴. غیرقابل هدف‌گیری؛ مهاجم نباید بتواند بدون به‌خطر انداختن کل سیستم، کاربر به‌خصوصی را در PCC هدف قرار دهد؛ بدین‌ترتیب، مهاجمان حرفه‌ای که دنبال دسترسی به اطلاعات شخصی کاربر به‌خصوصی هستند، به‌سختی می‌توانند هویت خود را پنهان کنند.

۵. شفافیت قابل‌تایید؛ پژوهشگران امنیتی باید بتوانند با درجه‌ی بالایی از اطمینان، تضمین‌های حریم خصوصی و امنیت PCC را با ادعاهای مطرح‌شده‌ی شرکت مقایسه کنند و تایید کنند که نرم‌افزار درحال اجرا در محیط PCC دقیقا همانی است که آن‌ها بررسی کرده‌اند.

اپل تاکید دارد که این اصول سخت‌گیرانه برای ارائه‌ی بالاترین حد از امنیت و حفظ حریم خصوصی خدمات ابری طراحی شده‌اند.

پس ChatGPT چطور؟

لوگو ChatGPT روی نمایشگر آیفون ۱۴

اپل تلاش کرده است امنیت اطلاعات کاربر را برای برخی از درخواست‌ها فراهم کند، اما نه تمام آن‌ها. درخواست‌هایی که روی دستگاه پردازش می‌شوند و آن‌هایی که برای پردازش به PCC فرستاده می‌شوند، به‌گفته‌ی اپل از امنیت بالایی برخوردارند، چون در سرورهای اپل ذخیره نمی‌شوند و کارکنان اپل به آن‌ها دسترسی ندارند؛ اما چت‌بات ChatGPT که قرار است اواخر ۲۰۲۴ در سطح سیستم‌عامل و در قالب به‌روزرسانی‌های جدید به آیفون، آیپد و مک بیاید، بخشی از «اپل اینتلیجنس» نیست و از سیاست‌های سخت‌گیرانه‌ی اپل در حفظ حریم خصوصی کاربران پیروی نمی‌کند.

درواقع، اپل اینتلیجنس به‌طور انحصاری فقط مدل‌های زبانی و هوش مصنوعی اپل را شامل می‌شود و ChatGPT مبتنی‌بر مدل GPT-4o به شرکت OpenAI تعلق دارد. اوپن‌ای‌آی برخلاف اپل سیستمی مشابه PCC برای پردازش خصوصی درخواست‌ها ندارد و به‌احتمال زیاد این درخواست‌ها در سرورهای شرکت ذخیره می‌شوند و حتی ممکن است برای آموزش مدل‌های زبانی به کار روند.

ChatGPT بخشی از «اپل اینتلیجنس» نیست و راهکار حریم خصوصی اپل را ندارد

اپل می‌توانست کلا از ChatGPT چشم‌پوشی کند و به همان مدل‌های هوش مصنوعی کوچک خودش اکتفا کند؛ اما این شرکت خوب می‌داند سیری به‌تنهایی نمی‌تواند از پس پاسخ به تمام درخواست‌های کاربران برآید و در حوزه‌ی چت‌بات‌ها هنوز هیچ محصولی به پای ChatGPT نرسیده است.

فدریگی در مصاحبه‌ای اذعان کرد که «مدل‌های زبانی بزرگ قابلیت‌های جالبی دارند که به کار برخی از کاربران می‌آید. ما به این نتیجه رسیدیم که ادغام این مدل‌ها با تجربه‌های خودمان می‌تواند دسترسی کاربران به این قابلیت‌ها را بسیار راحت‌تر از قبل کند.»

راه‌حل اپل برای حفظ حریم خصوصی کاربران هنگام استفاده از ChatGPT ساده است؛ هربار که درخواستی قرار است برای پردازش به چت‌جی‌پی‌تی فرستاده شود، کاربر ابتدا باید این اجازه را به سیری بدهد. بدین‌ترتیب، کاربر آگاهانه مسئولیت ذخیره‌شدن اطلاعاتش در سرورهای OpenAI را می‌پذیرد.

چقدر می‌توان به ادعاهای اپل اطمینان کرد؟

اپل کسب‌وکارش را بر پایه‌ی حفظ حریم شخصی کاربر بنا نهاده و برخلاف غول‌های فناوری دیگر ازجمله گوگل، از فروش داده‌های کاربران پول به جیب نمی‌زند؛ برای همین می‌توان تاحدی مطمئن بود که درخواست‌های هوش مصنوعی کاربران برای اپل ارزش مادی نداشته باشد. به‌گفته‌ی یکی از تحلیلگران شرکت داده‌ی IDC، «اگر نتوانیم به اپل درخصوص امنیت داده‌ها اعتماد کنیم، پس به چه شرکت دیگری می‌توانیم اعتماد کنیم؟»

در مورد PCC، اپل به پژوهشگران امنیتی مستقل اجازه می‌دهد به سرور اپل اینتلیجنس دسترسی داشته باشند تا از نزدیک، ادعاهای امنیتی و حریم خصوصی اپل را بررسی و تایید کنند. این تدابیر امنیتی، سطحی از اعتماد و اطمینان را به نمایش می‌گذارد که پیش‌تر در حوزه‌ی هوش مصنوعی بی‌سابقه بوده است.

صحت ادعای اپل نه فقط برای کاربران، بلکه برای حفظ اعتبار خود شرکت حیاتی است

اگر دلیل عقب‌ماندن اپل از رقابت هوش مصنوعی بحث حریم شخصی باشد که می‌تواند آسیب جدی به مدل کسب‌وکار اپل وارد کند، تاحدودی منطقی است که فکر کنیم صحت ادعای اپل نه فقط برای کاربران، بلکه برای حفظ اعتبار خود شرکت حیاتی است. اپل سال‌ها است با رمزنگاری سرتاسری داده‌های کاربران، کسب‌وکار خود را از رقبا متمایز کرده و بعید است اجازه دهد هوش مصنوعی یک‌شبه تمام این زحمات را به باد دهد.

البته این بدین‌معنا نیست که اپل در حفظ اطلاعات کاربران هرگز دچار اشتباه یا کوتاهی نمی‌شود؛ همین چند وقت پیش باگ نگران‌کننده iOS 17.5 عکس‌های قدیمی و حذف‌شده را به گوشی برمی‌گرداند؛ اپل این مشکل را با آپدیت بعدی حل کرد، اما هیچ‌گاه توضیح نداد چطور عکس‌هایی که قرار بوده از سرورهای ابری شرکت پاک شده باشند، هنوز وجود دارند.

بااین‌حال، باید منتظر نتیجه‌گیری تحلیل‌گران از میزان امنیت سرور اختصاصی اپل ماند. علاوه‌براین، درمورد PCC هنوز جای سوال باقی است. اپل به کاربر اجازه می‌دهد جلوی پردازش درخواستش توسط ChatGPT را بگیرد، اما آیا این اجازه برای پردازش درخواست در سرور خصوصی اپل نیز وجود خواهد داشت؟ اگر کاربر به هر دلیل نخواهد درخواستش حتی در سرور امن اپل پردازش شود، آیا می‌تواند جلوی این کار را بگیرد؟ اپل هنوز در این باره توضیحی ارائه نداده است.

درنهایت، حتی اگر هنگام خواندن این مطلب چشم‌هایتان خسته شد، آگاهی از دغدغه‌های حریم خصوصی مرتبط‌با هوش مصنوعی ارزشش را دارد؛ چراکه طبق پیش‌بینی‌های IDC، گوشی‌های مجهز به هوش مصنوعی در سال ۲۰۲۴ به ۱۷۰ میلیون واحد خواهند رسید و پی‌سی‌های هوش مصنوعی حدود ۶۰درصد از کل پی‌سی‌های فروخته‌شده در سال ۲۰۲۷ را تشکیل خواهند داد.

هوش مصنوعی، چه خوشمان بیاد چه نه، بخش جدایی‌ناپذیری از دستگاه‌های نسل بعدی و زندگی روزمره‌ی ما خواهد بود؛ و اپل نیز این موضوع را با سنجیدن تمام جوانب خوب و بد آن درک کرده است.

تبلیغات
داغ‌ترین مطالب روز
تبلیغات

نظرات