D1-kifpool
فراموشی ماشین / Machine Unlearning

وقتی هوش مصنوعی فراموش می‌کند؛ همه‌چیز درباره فراموشی ماشین

یک‌شنبه 4 آذر 1403 - 10:00مطالعه 19 دقیقه
فراموشی ماشین (Machine Unlearning) می‌تواند به راه‌حلی مؤثر برای مشکل آموزش مدل‌های هوش‌ مصنوعی با داده‌های نامطلوب، گمراه‌کننده یا آسیب‌زا تبدیل شود.
تبلیغات
D4-mcid4

در دو سال گذشته شاهد بودیم که چگونه مدل‌های یادگیری عمیق انقلاب هوش مصنوعی را رقم زدند و طیف وسیعی از امکانات کاربردی را، از ابزارهای جدید جست‌وجو گرفته تا مولدهای تصویر، در دسترس ما گذاشتند؛ اما هرچه هم این مدل‌ها را شگفت‌انگیز و کارآمد بدانیم، بازهم قدرت بالای آن‌ها در به‌ خاطر سپردن و تکرار دقیق داده‌های آموزشی، به شمشیری دو لبه تبدیل شده و چالش‌هایی جدی را در این حوزه‌ی نوظهور مطرح کرده است.

مدل‌های هوش مصنوعی مانند GPT-4o یا Llama 3.1 با حجم غیرقابل‌ وصفی از داده تعلیم دیده‌اند تا بتوانند به بهترین شکل ممکن، درخواست‌های ما را پاسخ دهند؛ اما اگر نیاز باشد زمانی این اطلاعات از حافظه‌ی مدل‌ها پاک شوند، دردسرها شروع می‌شود. برای مثال فرض کنید مدل یادگیری ماشین شما به‌طور تصادفی با داده‌هایی شامل اطلاعات بانکی شخصی، آموزش‌ دیده است. چگونه می‌توانید بدون اینکه مدل را مجدداً آموزش دهید، این اطلاعات خاص را پاک کنید؟

خوشبختانه حالا محققان در حوزه‌ی جدیدی با نام Machine Unlearning یا «فراموشی ماشین» روی این مشکل کار می‌کنند. فراموشی یا یادگیری‌زدایی ماشین حوزه‌ای نوظهور اما حیاتی محسوب می‌شود که بازیگران مهمی در حال ورود به آن هستند.

در ادامه با ما همراه باشید تا نگاه نزدیک‌تری به این مفهوم داشته باشیم و ببینیم آیا مدل‌ های زبانی بزرگ واقعاً می‌توانند آموخته‌های خود را فراموش کنند؟

کپی لینک

مدل‌های زبانی چگونه تعلیم می‌بینند؟

حتی قوی‌ترین مدل‌های هوش مصنوعی مولد هم از هوش واقعی برخوردار نیستند. شما می‌توانید آن‌ها را سیستم‌های آماری پیش‌بینی‌کننده‌ای بدانید که قادرند کلمات، تصاویر، گفتار، موسیقی، ویدیو و سایر داده‌ها را تولید یا تکمیل کنند. این مدل‌ها با تحلیل تعداد زیادی مثال (مانند فیلم‌ها، صداهای ضبط‌شده، مقاله‌ها و نظیر آن) یاد می‌گیرند میزان احتمال وقوع داده‌های خاص را پیش‌بینی کنند. آن‌ها الگوها را شناسایی می‌کنند و کانتکست پیرامون هر داده را در نظر می‌گیرند.

مدل‌های هوش مصنوعی در اصل احتمال وقوع داده‌های خاص را پیش‌بینی می‌کنند

برای مثال وقتی محتوای ایمیلی به عبارت «...Looking forward» (مشتاقِ...) می‌رسد، مدلی که برای تکمیل خودکار پیام‌ها آموزش‌دیده، پیرو الگویی که از ایمیل‌های مشابه شناسایی کرده است، عبارت «… to hearing back» (شنیدن پاسخ) را برای ادامه‌ی متن پیشنهاد می‌دهد. درواقع کاری که مدل انجام می‌دهد آگاهی نیست، بلکه صرفاً حدسی هوشمندانه بر پایه‌ی آمار و الگوهای مشابه است.

بیشتر مدل‌ها از جمله پرچم‌دارانی مانند GPT-4o، بر مبنای داده‌هایی که در وب‌سایت‌های عمومی و مجموعه‌های داده در سرتاسر وب منتشر شده‌اند، آموزش می‌بینند. اغلب شرکت‌هایی که از فروش اشتراک چت‌بات‌ها و ابزارهای AI کسب درآمد دارند، معتقدند جمع‌آوری داده‌ برای آموزش مدل‌ها «استفاده‌ی منصفانه» محسوب می‌شود و نیازی به اطلاع‌رسانی و اعتباردادن به مالکان محتوا و پرداخت کپی‌رایت ندارد. بااین‌حال، بسیاری از ناشران و صاحبان سبک‌های هنری با این ادعا موافق نیستند و حقوق خود را با شکایات قانونی پیگیری می‌کنند.

مدل‌های هوش مصنوعی در مرحله‌ی پیش‌آموزش، از حجم وسیعی از داده‌ها که اصطلاحاً Corpus نامیده می‌شود، استفاده می‌کنند تا برای هر کلمه یا ویژگی، ارزش و وزن خاصی به‌دست آورند که نشان‌دهنده‌ی اهمیت و ارتباط آن ویژگی‌ها در داده‌های مختلف است. این داده‌ها مستقیماً تعیین می‌کنند که مدل چه چیزی را درک خواهد کرد. پس از مرحله‌ی پیش‌آموزش، مدل برای بهبود نتایج پالایش می‌شود.

مدل‌ها در مرحله‌ی پیش‌آموزش، برای هر کلمه یا ویژگی، ارزش و وزن خاصی به‌دست می‌آورند

در مورد مدل‌های مبتنی بر معماری ترنسفورمر مانند ChatGPT، این پالایش غالباً به شکل RLHF (یادگیری تقویتی با بازخورد انسانی) انجام می‌شود، بدین معنی که انسان‌ها مستقیماً به مدل بازخورد می‌دهند تا پاسخ‌های آن را بهبود بخشند.

آموزش مدل‌های هوش مصنوعی، به قدرت پردازشی GPU‌ها نیاز دارد که هم پرهزینه‌اند و هم هر روز کمیاب‌تر می‌شوند. مدتی پیش The Information هزینه‌های روزانه‌ی عملیاتی چت‌جی‌پی‌تی را ۷۰۰ هزار دلار برآورد کرده بود.

کپی لینک

فراموشی ماشین (Machine Unlearning) چیست؟

محققان هدف اصلی فراموشی ماشین را حذف «تأثیرات» داده‌های آموزشی از یک مدل تعلیم‌دیده توصیف می‌کنند. به عبارتی با یادگیری‌زدایی از یک مدل خاص، باید به رفتاری مشابه با مدل دیگری برسیم که با «همان مجموعه اطلاعات اصلی، منهای برخی اطلاعات نامطلوب» تعلیم‌دیده باشد.

نمودار فراموشی ماشین

بااین‌حال در این تعریف باید به برخی نکات توجه کنیم:

چگونه می‌توان اطلاعاتی را که باید فراموش شوند، به‌درستی مشخص کرد؟ آیا همیشه امکان دسترسی به مدل‌هایی که براساس داده‌های واقعی آموزش دیده‌اند، وجود دارد؟ آیا همیشه مدل‌های بازآموزی‌شده‌ی معتبری در اختیار داریم و اگر نه، چگونه واقعاً یادگیری‌زدایی را ارزیابی کنیم؟

هدف اصلی فراموشی ماشین حذف «تأثیرات» برخی از داده‌های آموزشی از یک مدل تعلیم‌دیده است

آیا اصولاً می‌توانیم یادگیری‌زدایی را تأیید و کنترل کنیم؟ اگر مدل‌ها صرفاً «تظاهر» به فراموشی کنند، برای نتیجه‌ی امن و مطلوب کافی است؟ در نهایت، فراموشی ماشین چه مواقعی راه‌حل مفیدی محسوب می‌شود؟

کپی لینک

ایده و انگیزه‌های فراموشی ماشین

ایده‌ی فراموشی مدل‌های یادگیری ماشین، از سال ۲۰۱۴ و با مصوبه‌ی «حق فراموش‌شدن» در ماده‌ی ۱۷ قانون GDPR اتحادیه اروپا آغاز شد. در آن زمان مسئله این بود که کاربران بتوانند از ارائه‌دهندگان خدمات آنلاین بخواهند داده‌های مورد نظرشان را از سیستم‌ها حذف کنند؛ اما باید توجه داشته باشیم که «حق فراموش‌شدن» در ابتدا با هدف حذف اطلاعات در سیستم‌های منظم و ساختاریافته، مانند داده‌های حساب کاربری در سرویس‌هایی مانند جیمیل، طراحی شده بود و نه برای مدل‌های یادگیری عمیق که داده‌ها را به‌صورت پیچیده و درهم‌آمیخته ذخیره می‌کنند.

همین پیچیدگی باعث شد که محققان روش‌های حذف داده‌ها و فراموشی ماشین را مورد مطالعه قرار دهند. حالا در سال ۲۰۲۴، انگیزه‌ی فراموشی در مدل‌ها صرفاً به حفظ حریم خصوصی محدود نمی‌شود. با توسعه‌ی مدل‌های بزرگ که براساس مجموعه‌های داده‌ی متنوعی شامل محتواهای دارای کپی‌رایت، مطالب خطرناک یا توهین‌آمیز آموزش داده شده‌اند، نیاز به فراموشی بخش‌هایی از این داده‌ها یک ضرورت محسوب می‌شود.

به‌طور کلی، انگیزه‌های فراموشی ماشین را می‌توان به دو دسته تقسیم کرد:

لغو دسترسی: فراموشی داده‌های خصوصی و دارای کپی‌رایت

در دنیای ایدئال، شاید می‌توانستیم داده‌ها را به‌عنوان اطلاعاتی که به امانت گرفته می‌شوند در نظر بگیریم. در این صورت فراموشی ماشین با این هدف دنبال می‌شد که این امانت‌ها را به صاحبانشان بازگرداند. اما به دلیل پیچیدگی‌های یادگیری عمیق، داده‌های واردشده به مدل بیشتر به «اقلام مصرف‌شده» شباهت دارند و بازگرداندن چیزی که مصرف شده، چندان آسان نیست. حتی برخی داده‌ها مثل تاریخچه‌ی چت‌های شخصی غیرقابل‌ جایگزینی هستند و بهای آن‌ها به هر فرد بستگی دارد.

در بخش محتوای دارای کپی‌رایت، داده‌های آموزشی به «اقلام مصرف‌شده‌ای» شباهت دارند که بازگرداندن آن‌ها ساده نیست

برای درک این مفهوم، به مثالی ساده توجه کنید: اگر «باب چیزکیک آلیس را خورد» را معادل «داده» بگیریم، اقدامی نظیر «آلیس ترجیح می‌دهد باب به او پول بدهد یا چیزی معادلش را برگرداند»، معادل جبران خسارت یا حق مالی مالک داده خواهد بود؛ زیرا امکان بازگرداندن چیزی که باب خورده است یا همان فراموشی ماشین، بسیار غیرمنطقی و دشوار می‌شود.

در این حالت، احتمالاً خلق جایگزین‌هایی مانند بازارهای داده که در آن حق مالکان داده به‌درستی پرداخت می‌شود تا بعدها نیازی به فراموش داده نباشد، بسیار ارزشمند خواهد بود.

اصلاح و ویرایش مدل: حذف محتوای سمی، سوگیری‌ها و دانش منسوخ یا خطرناک

این نوع از فراموشی به‌منظور تصحیح اشتباهات و حذف موارد نامطلوب از مدل‌ها استفاده می‌شود. به‌عبارت‌دیگر، فراموشی می‌تواند به‌عنوان یک سازوکار کاهش ریسک در برابر خطرات هوش مصنوعی عمل کند.

برخلاف لغو دسترسی، در اصلاح مدل‌ها از انعطاف‌پذیری بیشتری برخورداریم، زیرا اصلاح یا ویرایش عمدتاً از مطلوبیت ناشی می‌شود و ضرورتی قانونی نیست: درست مانند دقت مدل در طبقه‌بندی تصویر یا سمی‌بودن متن تولیدشده (البته این موارد هم می‌توانند آسیب‌های واقعی ایجاد کنند).

در این حالت برای اطمینان از اینکه فراموشی ماشین خوب عمل می‌کند، به تضمین رسمی نیاز نداریم (گرچه ضمانت برای ما مطلوبیت دارد)؛ همان‌طور که در حال حاضر کاربران زیادی هستند که با رضایت کامل از مدل‌هایی استفاده می‌کنند که «به اندازه‌ی کافی ایمن» تشخیص داده شده‌اند.

کپی لینک

انواع راه‌های فراموشی ماشین

در نگاه اول فراموشی ماشین به‌سادگی با بازآموزی مدل بدون داده‌های ناخواسته محقق می‌شود. تصور کنید کتابخانه‌ی بزرگی دارید و می‌خواهید تمام کتاب‌های نویسنده‌ای خاص را از آن حذف کنید. ساده‌ترین راه این است که تمام کتاب‌ها را بیرون بریزید و کتابخانه را از نو، بدون کتاب‌های آن نویسنده مرتب کنید. این راهکار را می‌توانیم معادل «بازآموزی کامل» در یادگیری ماشین بدانیم؛ اما محققان به دنبال راه‌حل‌های بهتری هستند؛ زیرا از طرفی بازآموزی غالباً بسیار پرهزینه تمام می‌شود و از طرف دیگر پیداکردن موارد قابل‌ حذف از داده‌های آموزشی کار زیادی می‌برد (به پیدا‌کردن تمام اشارات به هری پاتر در یک تریلیون توکن فکر کنید).

تکنیک‌های یادگیری‌زدایی از اساس به دنبال کاهش یا اجتناب از این هزینه‌ی بازآموزی هستند، درحالی‌که نتایج یکسان یا مشابه تولید می‌کنند.

بازآموزی کامل مدل‌ها بسیار پرهزینه است و کار زیادی می‌برد

نگاهی کنیم به برخی از روش‌های رایج فراموش ماشین که تا به امروز بیشتر مورد توجه محققان بوده‌اند:

  • فراموشی دقیق (Exact unlearning): در این روش مدل یادگیری‌زدایی‌شده باید از لحاظ آماری کاملاً با مدل بازآموزی شده مشابه باشد.
  • فراموشی از طریق کاهش وضوح داده‌ها: در این روش، هدف این است که مدل به‌گونه‌ای رفتار کند که حذف یا نگه‌داشتن هر داده‌ی خاص در آن تفاوت چندانی ایجاد نکند.
  • فراموشی تجربی با فضای نمونه‌ی شناخته شده: این روش شامل برداشتن گام‌های افزایشی در جهت تنظیم مدل برای فراموش‌کردن داده‌های خاص است.
  • فراموشی تجربی با فضای نمونه‌ی ناشناخته: در این حالت، داده‌هایی که باید فراموش شوند دقیقاً مشخص نیستند و فقط به‌صورت مفهومی یا دانشی به مدل القا شده‌اند.
  • فراموشی با درخواست مستقیم: در این روش با دستورات مستقیم به مدل‌ها تلاش می‌شود که رفتار خاصی نشان دهند که گویی داده‌ها فراموش شده‌اند.

روش‌های فراموشی غیردقیق گاهی باعنوان «فراموشی تقریبی» شناخته می‌شوند، به این معنی که رفتار مدل یادگیری‌زدایی‌شده، تقریباً به مدل بازآموزی‌شده شباهت دارد.

در ادامه نگاهی نزدیک‌تر به هر یک از این روش‌ها خواهیم داشت.

فراموشی دقیق

هدف فراموشی دقیق این است که مدل جدید (بعد از حذف داده‌ها) دقیقاً مثل مدلی عمل کند که از اول بدون آن داده‌ها آموزش‌دیده است.

این روش معمولاً با تقسیم مجموعه‌ی داده به بخش‌های غیرهم‌پوشان و آموزش جداگانه‌ی مدل با هر بخش از داده‌ها انجام می‌شود. اگر نیاز به فراموشی داده‌های خاصی باشد، تنها بخشی از مدل که با داده‌های مربوطه تعلیم‌ دیده است، دوباره تحت آموزش قرار می‌گیرد.

در روش فراموشی دقیق عملکرد مدل جدید باید دقیقاً مثل مدلی باشد که از ابتدا بدون داده‌های خاص آموزش‌ دیده است

در مثال قبل، فرض کنید کتابخانه را به چند بخش تقسیم کرده‌ایم و برای هر بخش یک کتابدار جداگانه تعیین کرده‌ایم. پس وقتی می‌خواهیم کتاب‌های یک نویسنده را حذف کنیم، فقط به کتابدارهایی که به کتاب‌های موردنظرمان دسترسی دارند خبر می‌دهیم.

اگر مجموعه‌داده‌ها را به N بخش تقسیم کرده باشیم، هزینه‌ی محاسباتی روش فراموشی دقیق یعنی آموزش مجدد مدل بر اساس تغییر داده‌های یک بخش، معادل یک Nام آموزش کل مدل خواهد بود. در زمان استنتاج هم همه‌ی مدل‌ها با هم ترکیب می‌شوند.

Machine Unlearning  فراموشی ماشین

مهم‌ترین مزیت فراموشی دقیق این است که ساختار ماژولار آن به ما اطمینان می‌دهد که داده‌های حذف شده واقعاً تأثیری در نتایج ندارند و خود ساختار الگوریتم، درستی کار را ثابت می‌کند. به عبارتی چالش ارزیابی مدل‌ها پس از فراموشی تا حدودی حل می‌شود. از طرف دیگر به‌دلیل شفافیت پروسه‌ها، بهتر می‌فهمیم که هر داده چه تأثیری در عملکرد مدل دارد.

فراموشی از طریق حریم خصوصی تفاضلی

اگر حضور داشتن یا نداشتن یک داده در مدل، تغییر خاصی در رفتار آن ایجاد نکند، می‌توانیم استنباط کنیم که نیازی به یادگیری‌زدایی مدل در خصوص داده‌ی مربوطه نخواهیم داشت.

این ایده، مبنای اصلی روشی است که Differential Privacy (حریم خصوصی تفاضلی) یا به‌اختصار DP نام دارد: به‌عبارت‌دیگر در روش حریم خصوصی تفاضلی حساسیت مدل به تمام داده‌ها به‌قدری کم می‌شود که حذف یک داده یا اضافه‌کردنش، تغییر بزرگی در نتایج ایجاد نمی‌کند.

فراموشی ماشین با حریم خصوصی تفاضلی

در این تکنیک تفاوت بین مدل بازآموزی‌شده (بدون داده‌ی مورد نظر) و مدل اولیه به حداقل می‌رسد و توزیع نموداری نزدیکی را از هر دو آن‌ها دریافت می‌کند.

فرض کنید کسی می‌خواهد داده‌ی شخصی او از مدل پاک شود. اگر روش حریم شخصی درست پیاده شده باشد، وقتی آن داده را از مدل حذف کنیم، مدل همچنان همان رفتار قبلی را نشان می‌دهد؛ انگار هیچ‌وقت داده‌ی مذکور را یاد نگرفته است. به‌این‌ترتیب اصولاً نیازی به «فراموشی» خاصی نیست چون خود مدل طوری طراحی شده که اثر آن داده خاص را به‌سختی بروز دهد.

یکی از روش‌های معمول اجرای DP، اضافه‌کردن نویز به داده‌ها است: هنگامی‌که می‌خواهیم مدل را تعلیم دهیم، به داده‌ها کمی نویز اضافه می‌کنیم تا اثر هر داده‌ی خاص را کم‌رنگ‌تر کنیم.

در مثالی ساده فرض کنید وقتی مدل دارد چیزی را از جمله‌ای یاد می‌گیرد، چند کلمه‌ی بی‌ربط و اضافه نیز وارد جمله شود. اگر بعدها بخواهیم آن جمله را حذف کنیم، ازآنجاکه نویز تأثیر کلی داده‌ها را کاهش داده، مدل تغییر چندانی حس نمی‌کند.

با افزودن نویز به داده‌های آموزشی، تأثیر هر داده در خروجی کاهش می‌یابد

از نظر فنی در این روش ابتدا برای کاهش تأثیر هر داده، بزرگی گرادیان‌ها را محدود می‌کنیم. به‌این‌ترتیب مدل نمی‌تواند به‌صورت ناگهانی از یک داده‌ی خاص خیلی چیز یاد بگیرد و تأثیرپذیری مشخصی از داده‌ها خواهد داشت. سپس کمی نویز به داده‌ها اضافه می‌کنیم تا اثر دقیق هر داده پنهان شود و حتی اگر داده‌ای حذف شود، اثرش در نتیجه‌ی نهایی مدل به چشم نیاید.

معیار DP با دو عدد اپسیلون (ε) و دلتا (δ) شناخته می‌شود. این دو عدد به ما کمک می‌کنند بفهمیم حریم خصوصی مدل چقدر قوی است:

  • اپسیلون میزان تغییرات مجاز را نشان می‌دهد. هرچه این عدد کوچک‌تر باشد، مدل در برابر تغییرات داده‌ها حساسیت کمتری نشان می‌دهد و حریم خصوصی بیشتری دارد.
  • دلتا نوعی تضمین احتمالاتی محسوب می‌شود که احتمال نقض حریم خصوصی داده را بیان می‌کند؛ یعنی به ما می‌گوید چقدر امکان دارد DP نتواند کارش را درست انجام دهد. بنابراین هرچه دلتا کمتر باشد، احتمال اینکه مدل به‌خاطر یک داده‌ی خاص رفتار متفاوتی داشته باشد هم کمتر می‌شود.

درمجموع کوچک‌تر بودن ε و δ یعنی مدل حریم خصوصی قوی‌تری دارد و اثر داده‌های خاص را به حداقل می‌رساند.

در بخش‌های بعد توضیح می‌دهیم چرا افزایش نویز به کاهش کارایی مدل منتهی می‌شود، اما فعلاً این مسئله را در نظر بگیرید که استفاده از نویز مثل‌ این است که برای پیدانکردن شخصی خاص در میان جمعیت، چهره‌ی همه را با ماسک بپوشانیم. شاید نهایتاً مدل ما شخص مورد نظر را شناسایی نکند، ولی هم‌زمان در تشخیص سایر داده‌ها نیز دچار مشکل می‌شود.

فراموشی تجربی با فضای نمونه‌ی شناخته شده

در این روش، فراموشی ماشین با ایجاد تغییرات کوچک در مدل از طریق گام‌های «افزایشی» انجام می‌شود. تکنیک‌های تجربی بیشتر بر پایه‌ی آزمون‌وخطا پیش می‌روند و محققان با تنظیم دقیق پارامترها تلاش می‌کنند که مدل رفتار دلخواهی در برابر داده‌های نامطلوب نشان دهد.

نکته‌ی اصلی این است که فقط وقتی فضای نمونه‌ها را می‌شناسیم، می‌توانیم از این روش استفاده کنیم.

تکنیک‌های تجربی گام‌به‌گام و با تنظیم دقیق پارامترها پیش می‌روند

به بیان ساده چند قدم حساب شده برمی‌داریم تا رفتار مدل اصلی را به‌گونه‌ای تغییر دهیم که انگار از اول با داده‌های جدید آموزش‌ دیده است. مدل به‌طور محدود و با تنظیمات خاصی دوباره آموزش داده می‌شود تا رفتار آن در جهت فراموش‌کردن برخی داده‌ها تغییر کند.

برای مثال در رقابت NeurIPS سال ۲۰۲۳ هدف این بود که با استفاده از یک الگوریتم یادگیری‌زدایی، مدلی تولید شود که دیگر به داده‌های خاصی (مثلاً عکس‌های چهره) دسترسی نداشته باشد و رفتارش با مدل مرجع که تنها با داده‌های باقی‌مانده آموزش‌ دیده است، شباهت داشته باشد.

شرکت‌کنندگان ۳ ورودی اصلی دریافت می‌کردند:

  • مجموعه‌ای از تصاویر که مدل اصلی با آن‌ها تعلیم‌دیده بود
  • مدل اولیه که هنوز فراموشی در آن اعمال نشده بود
  • تصاویری که باید از مدل حذف می‌شد

همچنین مدل‌هایی مخفی وجود داشت که صرفاً با داده‌های «نگه‌داشتنی» آموزش‌ دیده بودند. شرکت‌کننده‌ها باید الگوریتمی می‌نوشتند که ۵۱۲ مدل جدید و یادگیری‌زدایی‌شده مختلف با عملکردی مشابه مدل‌های مخفی تولید می‌کرد.

در نهایت مشخص شد برندگان مسابقه از ترکیب چند روش استفاده کرده‌اند:

  • روی داده‌هایی که باید فراموش می‌شدند، گرادیان صعودی اعمال کردند (انگار به مدل بگویند از این داده‌ها دور شو و آن‌ها را فراموش کن).
  • روی داده‌هایی که باید حفظ می‌شدند، گرادیان نزولی اعمال کردند (انگار به مدل بگویند این داده‌ها را بهتر یاد بگیر و به‌خاطر بسپار).
  • به داده‌های فراموش‌شدنی برچسب‌های تصادفی دادند تا مدل کمی گیج شود و نتواند آن‌ها را دقیق به یاد بیاورد.
  • به حافظه‌ی مدل نویز اضافه کردند تا آن را کمی فراموش‌کارتر کنند.
  • بعضی از وزن‌ها را از نو مقداردهی کردند و برخی وزن‌ها را حذف کردند.
  • لایه‌های اول و آخر مدل را مجدداً از نو راه‌اندازی کردند و با عکس‌های حفظ‌شدنی آموزش دادند.

دلیل محبوبیت روش‌های تجربی، این است که ساده‌تر و سریع‌تر اجرا می‌شوند و درعین‌حال تأثیر خوبی روی مدل دارند. به‌علاوه نتایج کار هم به‌راحتی دیده می‌شود. برعکس در روش‌های نظری که از محاسبات پیچیده استفاده می‌کنند، در عمل کُند و سخت اجرا می‌شوند و به منابع زیادی نیز نیاز دارند.

اما یکی از چالش‌های اصلی روش تجربی این است که نمی‌دانیم در حالت ایدئال، یک مدل بعد از فراموش‌کردن چه رفتاری با داده‌های جدید از خود نشان می‌دهد؛ مثلاً آیا باید تصاویری را که حذف شده‌اند، به‌صورت تصادفی و بدون اطمینان دسته‌بندی کند یا خیر.

این عدم قطعیت در رفتار مدل به دلیل وجود شرایط و سناریوهای مختلف می‌تواند به تفاوت‌هایی در خروجی مدل منجر شود و پیش‌بینی دقیق اثرات آن را دشوار کند. در نتیجه اثبات کارایی مدل جدید و شباهت آن به مدل اصلی زیر سؤال می‌رود، چرا که مدل پس از حذف داده‌ها می‌تواند نتایج و خروجی‌های متنوعی ایجاد کند.

فراموشی تجربی با فضای نمونه‌ی ناشناخته

زمانی که داده‌هایی که باید فراموش شوند به‌صورت دقیق مشخص نیستند و تنها به شکل مفاهیم یا دانشی کلی در مدل وجود دارند، از این روش تجربی استفاده می‌شود.

برای مثال فرض کنید می‌خواهیم یک مدل مفهوم «بایدن رئیس‌جمهور آمریکا است» را فراموش کند. اما مفهوم واقعی این جمله در قالب‌های مختلفی در داده‌ها موجود است، مثل مقاله‌ها، گفتگوهای عمومی، ویدیوها، پست‌های وبلاگ یا متن‌های خبری. بنابراین تنها با حذف چند نمونه‌ی خاص به هدف نمی‌رسیم.

معمولاً اصطلاحاتی مانند «ویرایش مدل»، «ویرایش مفهوم»، «جراحی مدل» و «یادگیری‌زدایی دانش» به این تکنیک فراموشی ماشین اشاره دارند.

اما وقتی درخواست فراموش‌کردن تا این حد نامشخص است، باید روی موضوعاتی مثل دامنه‌ی ویرایش و چگونگی روابط اطلاعات تمرکز کنیم.

برخی اطلاعات در مجموعه‌داده‌های آموزشی به شکل‌های مختلفی و با پیامدهای متفاوتی ظاهر می‌شود

گاهی اوقات چند مثال دریافت می‌کنیم که با توجه‌ به آن‌ها می‌فهمیم چه چیزی از مدل باید یادگیری‌زدایی شود. اما این اطلاعات در مجموعه‌داده‌های آموزشی به شکل‌های مختلفی و با پیامدهای متفاوتی ظاهر می‌شود. پس حتی اگر بتوانیم دقیقاً همان مثال‌ها را پاک کنیم، کافی نیست.

فضای نمونه‌ی ناشناخته در فرم‌های زیر بهتر احساس می‌شود:

  • حذف اطلاعات پراکنده درباره‌ی یک شخص یا رویداد، مانند فراموش‌کردن یک سیاستمدار یا سلبریتی
  • حذف سبک هنری: یک هنرمند می‌خواهد سبک خاص خودش از مدل هوش مصنوعی پاک شود تا دیگر مدل نتواند نقاشی‌های مشابهی به سبک او تولید کند. اما این کار دشوار است، چون نمی‌توان تمام آثار هنری موجود در اینترنت را که با این سبک هنری خلق شده‌اند به مدل نشان داد تا همه را حذف کند.
  • حذف مقالات یک منبع خبری: اگر نیویورک‌تایمز درخواست دهد مقالاتش را از مدل پاک کنند، این سوال مطرح می‌شود که چگونه می‌توان تمام نقل‌قول‌ها، تفسیرها، نسخه‌های فرعی و اشاراتی را که به مقالات شده، جمع‌آوری کرد. همچنین چگونه باید به مدل نشان دهیم که کدام موارد باید حذف شوند.

در این مواقع ازآنجاکه نمی‌توانیم همه‌ی داده‌های مربوط به یک مفهوم خاص را دقیقاً مشخص کنیم، فرایند یادگیری‌زدایی به‌صورت «تجربی» انجام می‌شود. یعنی از راهکارهایی استفاده می‌شود که مدل به طور تقریبی رفتار خود را تغییر دهد، بدون اینکه تضمینی وجود داشته باشد که تمام اطلاعات موردنظر پاک شده باشند.

نکته‌ای که شاید برایتان جالب باشد: وقتی به‌صورت تجربی اطلاعاتی را از مدل پاک می‌کنیم، خود این یادگیری‌زدایی هم می‌تواند یادگیری‌زدایی شود.

در عمل فراموشی تجربی با استفاده از تغییرات کوچک و مداوم در مدل انجام می‌شود:

  • یافتن نمونه‌های مشابه: گر نتوانیم همه‌ی داده‌ها را پیدا کنیم، مدل را با نمونه‌های مشابه و غیریکسانی دوباره آموزش می‌دهیم تا به‌تدریج مفهوم موردنظر فراموش شود.
  • ایجاد جایگزین‌ها: برای مثال به مدل می‌گوییم به‌جای اینکه «هری پاتر» را به‌عنوان یک جادوگر در نظر بگیرد، متن‌های مشابهی بسازد که در آن «هری پاتر» به کار دیگری مشغول باشد، مثلاً آشپزی.
  • جهت‌دهی رفتار مدل: در این روش با تغییر و تنظیم وزن‌ داده‌ها و سایر پارامترهای مدل، به او آموزش می‌دهیم که به شکلی متفاوت رفتار کند، یعنی از ارائه اطلاعاتی که باید فراموش شود، اجتناب کند.
  • محدودکردن ارتباطات بین داده‌ها: به این معنا که مدل طوری تنظیم می‌شود که بین داده‌هایی که می‌خواهیم فراموش شوند و سایر داده‌ها، ارتباط زیادی برقرار نشود.

درخواست مستقیم از مدل برای فراموشی

تحقیقات نشان می‌دهد که مدل‌های زبانی بزرگ قدرتمند و دستورپذیر مانند GPT-4، به‌قدر کافی هوشمند هستند که بتوانند فراموشی را «تظاهر کنند». به‌عبارتی می‌توان پیام‌هایی طراحی کرد که رفتار مدل را درخصوص فراموشی اطلاعات موردنظر، به حد کافی ایمن کند.

موضوع جالب درمورد این روش این است که اصولاً از گرادیان یا جهت‌دهی توجه مدل استفاده نمی‌کند و درعین‌حال نتایج مطلوبی تولید می‌کند. تا به امروز کارشناسان از ۳ راهکار خروجی نسبتاً خوبی دریافت کرده‌اند:

۱) درخواست صریح از مدل برای تظاهرکردن: می‌توانیم در پیام سیستمی از مدل بخواهیم که وانمود کند هری پاتر را نمی‌شناسد. این روش برای اطلاعات عمومی و رایجی که در داده‌های آموزشی به‌خوبی گنجانده شده، بهتر جواب می‌دهد. زیرا مدل باید به‌خوبی از اطلاعات مربوطه مطلع باشد تا بتواند فراموشی آن‌ها را تظاهر کند.

درخواست مستقیم از مدل برای تظاهر به فراموشی در خصوص اطلاعات عمومی بهتر جواب می‌دهد

اما اگر بخواهیم مدل چیزی مثل آدرس فرد ناشناسی را فراموش کند (که شاید در داده‌های آموزشی وجود داشته) مسئله پیچیده‌تر می‌شود. درواقع این کار به اثر «استرایسند» شباهت دارد که اگر بیش‌ازحد روی فراموشی چیزی تمرکز کنیم، ممکن است ناخواسته آن را فاش کنیم.

۲) روش نمونه محور: در این حالت با ارائه‌ی مثال‌هایی خاص به مدل، از او می‌خواهیم اطلاعات نادرست را به‌عنوان حقیقت بپذیرد. مثلاً اگر می‌خواهیم مدل این واقعیت را که «پاریس پایتخت فرانسه است» فراموش کند، در ورودی مدل با چندین مثال این جمله را با اطلاعاتی اشتباه وارد می‌کنیم.

این رویکرد زمانی کارآمدتر است که داده‌های فراموشی، دقیق و محدود باشند. اما در شرایطی که با فرایندهای پیچیده‌تری مثل «حذف رفتارهای سمی و ناخواسته» سروکار داریم، احتمالاً پاسخ مطلوبی دریافت نمی‌کنیم، زیرا تعداد خروجی‌های احتمالی بسیار زیاد هستند.

۳) سیستم چندمدلی: در این سیستم تنها یک رابط برای ورودی و خروجی مدل کلی فراهم می‌شود و مدل‌های مختلفی نیز برای شبیه‌سازی بخش‌های مختلف به‌کار می‌روند: مثلاً یک مدل به سؤالات کلی پاسخ می‌دهد، مدل دیگری نقش تکمیل جملات را به عهده می‌گیرد و نظیر آن.

همچنین مدل هماهنگ‌کننده، تعیین می‌کند که کدام مدل در پاسخ‌دهی به سؤال کاربر مورد استفاده قرار بگیرد. نهایتاً یک مدل جمع‌بندی کننده خروجی نهایی را بر اساس رفتار فراموشی موردنظر تدوین و حتی فیلترهایی را نیز روی آن اعمال می‌کند.

انتقادی که به تمامی این روش‌ها وارد می‌شود، این است که مدرک یا تضمینی برای فراموشی به ما نمی‌دهند. در مقابل، برخی کارشناسان استدلال می‌کنند که خود انسان‌ها هم واقعاً چیزی را فراموش نمی‌کنند، بلکه عموماً تصمیم می‌گیرند از دانسته‌های قبلی خود در موقعیت‌های خاص استفاده نکنند. پس شاید به‌جای اینکه از هوش مصنوعی انتظار داشته باشیم چیزی را کاملاً فراموش کند، باید به آن یاد بدهیم چه زمانی، چگونه دانش خود را به کار بگیرد.

کپی لینک

چالش‌ها و محدودیت‌های فراموشی ماشین

نیاز به انواع منابع گران‌بها

یادگیری‌زدایی ماشین با حذف داده‌های خاص به‌ویژه در مدل‌های بزرگ و پیچیده، بدون پردازش‌های سنگین و چندباره امکان‌پذیر نیست و هزینه‌های محاسباتی و زمانی بالایی را به همراه دارد. در مدل‌های هوش مصنوعی GPT-4o و Bert که با میلیاردها پارامتر تعلیم دیده‌اند، فرایند حذف برخی داده‌ها به اندازه‌ی آموزش مجدد کل مدل، وقت و تلاش خواهد برد.

به‌علاوه نیاز به منابع پردازشی بسیار قوی مانند مجموعه‌ی جی‌پی‌یوها و پردازنده‌های تنسور، به‌احتمال زیاد شرکت‌های کوچک‌تر را از پیاده‌سازی تکنیک‌های فراموشی منصرف می‌کند.

قطعی نبودن حذف کامل داده‌ها

در مدل‌های یادگیری عمیق، داده‌های آموزشی به‌صورت پیچیده‌ای در وزن‌ها و پارامترهای مدل گنجانده می‌شوند. حتی اگر بخشی از داده‌ها حذف شوند، ممکن است اثری از آن‌ها به شکل غیرمستقیم همچنان در مدل باقی بماند.

به‌عنوان‌ مثال، یک مدل زبانی که با داده‌های جانب‌دارانه آموزش‌دیده، حتی پس از حذف این داده‌ها ممکن است برخی الگوهای سوگیرانه را همچنان حفظ کند.

از طرف دیگر روش‌های تقریبی تضمینی برای حذف کامل داده‌ها ارائه نمی‌دهند. در شرایطی که رگولاتورها فراموشی را امری «حیاتی» بدانند، این مشکل محدودیتی جدی محسوب می‌شود و اعتبار مدل را زیر سؤال می‌برد.

تأثیر منفی بر عملکرد مدل

مهم‌ترین چالشی که در حوزه‌ی یادگیری‌زدایی از مدل‌ها به چشم می‌خورد، این است که غالباً حذف داده‌ها به کاهش دقت و کارایی مدل منجر می‌شود.

تحقیقات نشان می‌دهد که در برخی موارد، حذف داده‌های خاص می‌تواند مدل را حتی در انجام وظایف ساده خود نیز ناتوان کند. به‌عنوان‌ مثال در یک مدل شناسایی تصویر، حذف تصاویر خاصی از افراد می‌تواند باعث کاهش دقت کلی مدل در شناسایی آن دسته از تصاویر شود.

هرچه تنوع و گستردگی اطلاعات ورودی بیشتر باشد، احتمال اینکه بعد از حذف برخی داده‌ها تعادل مدل از بین برود هم بیشتر می‌شود.

اغلب روش‌های فعلی فراموشی ماشین کیفیت عملکرد مدل‌ها را پایین می‌آورند

همچنین در برخی از تکنیک‌های فراموشی ماشین، اضافه‌کردن نویز به داده‌ها یا گرادیان‌ها باعث می‌شود حساسیت مدل به داده‌های خاص کاهش یابد، اما روی دقت کلی مدل نیز اثر منفی خواهد داشت.

محققان به‌دنبال یافتن راه‌حلی برای برقراری تعادل بین «حذف یا تغییر داده‌ها» و «صحت و دقت پاسخگویی» مدل‌ها هستند، زیرا در حوزه‌هایی مانند تشخیص پزشکی یا تحلیل داده‌های حیاتی، خروجی‌هایی که تحت نویز به دست می‌آیند، پیامدهای غیرقابل‌ بازگشتی به دنبال دارند.

نبود ابزارهای ارزیابی دقیق میزان فراموشی

ارزیابی میزان موفقیت روش‌های آن‌لرنینگ و بررسی اینکه آیا مدل واقعاً داده‌های خاصی را فراموش کرده یا خیر، به دلیل پیچیدگی‌های ساختاری و وابستگی‌های داخلی مدل‌ها، بسیار دشوار است.

ابزارهای ارزیابی فعلی عمدتاً میزان دقت و عملکرد کلی مدل پس از حذف داده‌ها را می‌سنجند، ولی توانایی تشخیص ردپاهای کوچک و غیرمستقیم داده‌ها در مدل را ندارند. به همین‌ دلیل محققان توسعه‌ی معیارهای جدیدی که به‌طور دقیق وابستگی مدل‌های تغییریافته به داده‌های حذف شده را ارزیابی کند، ضروری می‌دانند.

کپی لینک

هنر فراموشی: مطالعات دنیای واقعی

مطالعات جدید محققان دانشگاه واشنگتن، پرینستون، شیکاگو، USC و شرکت گوگل نشان می‌دهد محبوب‌ترین تکنیک‌های فراموشی امروزی، هریک به‌نوعی قدرت مدل‌ها را کاهش می‌دهند؛ تا جایی که گاهی بعد از اعمال تغییرات، مدل‌ها دیگر قابل‌ استفاده نیستند.

ویجیا شی، یکی از محققان حوزه‌ی آن‌لرنینگ و دانشجوی دکترای علوم کامپیوتر دانشگاه واشنگتن، می‌گوید:

ارزیابی ما نشان می‌دهد که روش‌های یادگیری‌زدایی فعلی هنوز برای استفاده‌ی معنادار یا پیاده‌سازی در سناریوهای دنیای واقعی آماده نیستند. در حال حاضر هیچ روش کارآمدی وجود ندارد که به یک مدل اجازه دهد داده‌های خاصی را فراموش کند، بدون اینکه کارایی آن به‌طرز چشمگیری کاهش یابد.

فراموشی ماشین به‌سادگی با فشار دکمه‌ی «حذف» انجام نمی‌شود

شی و همکارانش برای بررسی اثربخشی این الگوریتم‌های فراموشی معیار سنجشی را طراحی و هشت الگوریتم متن‌باز مختلف را برای آزمایش انتخاب کردند.

هدف این معیار که MUSE (ارزیابی شش‌گانه‌ی یادگیری‌زدایی ماشین) نام دارد، این بود که توانایی مدل را با دو معیار اصلی بسنجد: وجودنداشتن داده‌های حذف شده در پاسخ‌ها و همچنین فراموشی دانش کلی در مورد یک موضوع، یا هرگونه شواهدی که نشان دهد مدل در اصل با این داده‌ها تعلیم‌ دیده است.

دریافت امتیاز خوب در این تحقیقات، مستلزم این بود که مدل دو چیز را فراموش کند: مجموعه کتاب‌های هری پاتر و مقالات خبری.

برای مثال به این جمله از کتاب هری‌پاتر و تالار اسرار توجه کنید: «خاله پتونیا درحالی‌که به پسرش نگاه می‌کرد، گفت در ماهیتابه غذای بیشتری وجود دارد.» محققان برای درک موفقیت الگوریتم‌ها، مدل جدید را به چندین شیوه محک زدند:

  • اگر مدل بتواند جمله‌ی ناقص «خاله... گفت توی ماهیتابه غذای بیشتری است...» را کامل کند، یعنی هنوز داده‌های مورد نظر را به‌خاطر می‌آورد.
  • اگر مدل به سؤالاتی که درباره‌ی این صحنه می‌شود، مثل «خاله پتونیا به پسرش چه گفت؟» پاسخ دهد، مشخص می‌شود که با داده‌های کتاب تعلیم‌ دیده است.
  • آیا مدل اطلاعات عمومی حول داده‌های مورد نظر را به‌خاطر می‌آورد و مثلاً می‌داند جی. کی رولینگ چه نسبتی با کتاب‌های هری پاتر دارد؟
  • پاسخ درست به سؤال آخر، کارایی کلی مدل را نشان می‌دهد. هرچه کارایی پایین‌تر باشد، مدل دانش کلی بیشتری را از دست می‌دهد و کیفیت پاسخگویی آن به سایر سؤالات و درخواست‌ها هم پایین‌تر می‌آید.

نتایج تحقیقات نشان می‌داد الگوریتم‌های آن‌لرنینگ واقعاً باعث می‌شوند مدل‌ها اطلاعات خاصی را فراموش کنند، اما درعین‌حال به قابلیت‌های پاسخگویی به سؤالات عمومی نیز آسیب می‌زنند. شی توضیح می‌دهد:

طراحی روش‌های فراموشی ماشین می‌تواند چالش‌برانگیز باشد، زیرا اطلاعات و دانش پیرامون موضوعات، به‌طرز پیچیده‌ای درون مدل درهم‌تنیده شده‌اند. مثلاً یک مدل احتمالاً هم با محتوای دارای حق نشر «کتاب‌های رسمی هری پاتر» و هم با محتوای آزاد «ویکی هری پاتر» تعلیم‌دیده و وقتی روش‌های آن‌لرنینگ موجود تلاش می‌کنند داده‌های کتاب‌های دارای کپی‌رایت هری پاتر را حذف کنند، روی اطلاعات مدل درباره ویکی هری پاتر نیز تأثیر قابل‌ توجهی می‌گذارند.

با گسترش مدل‌های یادگیری عمیق و استفاده‌ی روزافزون از داده‌های حساس و دارای کپی‌رایت، نیاز به روش‌هایی برای حذف یا تعدیل این اطلاعات بیش‌ازپیش احساس می‌شود. اگرچه راهکارهای فعلی آن‌لرنینگ هنوز به بلوغ کامل نرسیده‌اند و با چالش‌های فنی و قانونی زیادی روبه‌رو هستند، اما تلاش‌های مداومی برای بهبود و توسعه‌ی این حوزه در جریان است.

همان‌طور که فناوری‌های یادگیری ماشینی به تکامل خود ادامه می‌دهند، می‌توان انتظار داشت که روش‌های جدید و پیشرفته‌تری برای مدیریت اطلاعات و فراموشی داده‌ها طراحی شوند.

مقاله رو دوست داشتی؟
نظرت چیه؟
تبلیغات
D5-b3IranServer
داغ‌ترین مطالب روز
وب‌گردی با لپ‌تاپ گیمینگ Stealth 15 A13V ام‌اس‌آی
وب‌سایت‌های ضروری در زمان اختلال اینترنت بین‌الملل یا تحریم

در شرایط بحران، هنگامی که دسترسی به اینترنت بین‌الملل قطع است، چه وب‌سایت‌هایی می‌توانند به کمکمان بیایند؟

555
حدود 20 ساعت قبل
آیفون 11 پرو مکس / iPhone 11 Pro Max با شارژر
چه کار کنیم گوشی آیفون کمتر شارژ مصرف کند؟

ترفندهای ساده‌ای وجود دارد که با انجام آن‌ها می‌توان شارژدهی گوشی آیفون را افزایش داد و در نهایت باعث افزایش درصد سلامت باتری ایفون شد.

9
2 روز قبل
قطع اینترنت - موبایل
اطلاعیه‌ وزارت ارتباطات درباره قطع شدن اینترنت بین‌الملل؛ محدودیت موقت است

وزارت ارتباطات در پی قطع شدن دسترسی کاربران به شبکه اینترنت اعلام کرد محدودیت‌های ایجاد شده موقت است.

83
1 روز قبل
هکر هودی‌ به تن درحال استفاده از لپ‌تاپ
خدمات کارتی بانک پاسارگاد فعال شد؛ اما خدمات اینترنتی و موبایلی همچنان غیرفعال است

خدمات کارتی بانک پاسارگاد پس از دفع حمله‌ی سایبری گسترده به شبکه‌ی بانکی کشور، بار دیگر در دسترس قرار گرفت.

0
حدود 15 ساعت قبل
دختر جوان درحال کار با گوشی درحالت آفلاین در اتاق
۷ اپلیکیشن‌ برای ارتباط بی‌سیم در شرایط قطع اینترنت موبایل و وای‌فای

وقتی ارتباطات رایج مثل شبکه‌های موبایل از کار می‌افتند، راه‌های دیگری برای ارسال پیام وجود دارند؛ با این اپ‌ها همیشه در دسترس بمانید.

122
حدود 22 ساعت قبل
قطع اینترنت - فیلترینگ - دکمه قطع اتصال اینترنت
قطع اینترنت کشور، ریزپرنده‌ها را زمین‌گیر کرد؛ ادعای منبع آگاه

به گفته‌ی یکی از منابع آگاه، قطع سراسری اینترنت کشور باعث زمین‌گیرشدن ریزپرنده‌های مهاجم شده است.

0
حدود 15 ساعت قبل
منوی باتری شیائومی ۱۴ پرو
چه کار کنیم گوشی شیائومی کمتر شارژ مصرف کند؟

گوشی‌های شیائومی تنظیمات مختلفی برای بهبود مصرف باتری دارند که با تغییر آن‌ها می‌توان شارژدهی را افزایش داد.

99
2 روز قبل
تبلیغات
DN-DNShatel

نظرات

تبلیغات
D7-zoomitproduct
آخرین ویدیوها
گفتگو زومیت با دیجی کالا
گفتگو زومیت با مدیرعامل دیجی‌کالا: ظرفیت جهش ۱۰ برابری داریم
01:16:00
‍زومکست پست
گفتگو با مدیرعامل پست؛ نیاز به سرمایه‌گذاری و رفع تحریم‌ها
01:09:00
شیرجه‌ای به عمق؛ blu Deep Dive گزارش اولین رویداد باگ‌بانتی بلوبانک سامان
شیرجه‌ای به عمق؛ blu Deep Dive گزارش باگ‌بانتی بلوبانک سامان
00:10:26
نگاه نزدیک به iOS26؛ شیشه‌ای‌ترین سیستم عامل اپل!
نگاه نزدیک به iOS26؛ شیشه‌ای‌ترین سیستم عامل اپل!
00:20:26
تو رویداد WWDC 2025 اپل چه خبر بود؟ خلاصه و مفید
تو رویداد WWDC 2025 اپل چه خبر بود؟ خلاصه و مفید
00:13:23
شنوتو: چهارده هزار پادکستر فارسی
مدیرعامل شنوتو: حدود ۱۴ هزار عنوان پادکستر فارسی فعال است
00:48:57
۵ دلیل برتری مانیتور اولتراواید
۵ دلیل برتری مانیتور اولتراواید + آنباکس ROG Swift PG35V
00:11:02
عکس گلکسی اس ۲۴ اف ای در دستان بهزاد
بررسی طولانی مدت گلکسی S24 FE
00:10:44
عکس تبلت‌های شیائومی پد ۷ و پد ۷ پرو در کنار هم
بررسی تبلت‌های شیائومی پد ۷ و پد ۷ پرو
00:18:54
ضبط مکالمه گوشی سامسونگ
فعال‌سازی ضبط مکالمه سامسونگ؛ آموزش صفر تا صد
00:13:56
عکسی از وان یو آی ۸ در گوشی اس ۲۵ اولترا
نگاهی به تمام ویژگی‌های جذاب وان یو آی ۸
00:08:02
آب میوا
نمایشگاه آگروفود؛ مصاحبه با مدیرعامل برند میوا
00:15:22
وقتی ناتینگ تجربه می‌فروشه! بررسی ناتینگ فون ۳ای پرو
وقتی ناتینگ تجربه می‌فروشه! بررسی ناتینگ فون ۳ای پرو
00:13:55
باریکی به چه قیمتی؟ بررسی گلکسی اس۲۵ اج
باریکی به چه قیمتی؟ بررسی گلکسی اس۲۵ اج
00:11:09
مالیات در کمین است
چرا کسب‌وکارهای محلی به حاشیه رانده شدند؟
00:56:01
فروش آنلاین لباس‌های ایرانی اصیل در بانی‌مد
بانی‌مد میزبان بیش از هزار برند ایرانی اصیل
00:45:24
عکس بهزاد در کنار تبلت‌های شیائومی پد ۷ و پد ۷ پرو
آنباکس تبلت‌های شیائومی؛ پد ۷ و پد ۷ پرو
00:12:19
رویداد گوگل I/O در ۱۸ دقیقه! از ترجمه فارسی تا عینک واقعیت ترکیبی 🥽✨
رویداد گوگل I/O در ۱۸ دقیقه!
00:18:44
زومکست با جاب ویژن
هوش مصنوعی، جایگزین نیروی انسانی؟
01:04:35
عکس گلکسی اس ۲۵ اج در تمام رنگ‌ها
آنباکس گلکسی اس ۲۵ اج؛ باریک و سبک و دوست داشتنی
00:12:54
عکس تبلت‌های گلکسی تب S10 FE و گلکسی تب S10 FE Plus
بررسی گلکسی تب S10 FE و FE پلاس
00:14:14
زومکست فضاهای اشتراکی
گفتگو زومیت با مدیران انجمن فضاهای اشتراکی
00:44:45
یک شب دو گوشی؛ گلکسی اس۲۵ اج و اکسپریا ۱ مارک ۷ معرفی شد
یک شب دو گوشی؛ گلکسی اس۲۵ اج و اکسپریا ۱ مارک ۷ معرفی شد
00:07:40
عکس بهزاد در حال ساختن اپل اکانت
آموزش جامع ساخت اپل آیدی؛ قدم به قدم
00:25:22
پادشاه جدید عکاسی موبایل؟ بررسی شیائومی ۱۵ اولترا 🐲📸
پادشاه جدید عکاسی موبایل؟ بررسی شیائومی ۱۵ اولترا 🐲📸
00:15:17
عکس سعیده اسلامیه در کنار سحر بختیاری از دیجی‌کالا
صفر تا صد دیجی‌کالا ادز؛ مصاحبه با سحر بختیاری
00:41:20
بررسی بلندمدت آیفون ۱۶ پرو مکس 🤑 با این قیمت ارزش خرید داره؟
بررسی بلندمدت آیفون ۱۶ پرو مکس 🤑
00:09:06
تغییرات باورنکردنی در راه اندروید! 🤯🔥
تغییرات باورنکردنی در راه اندروید! 🤯🔥
00:14:52
کاور زومکست اسنپ فود
گفتگو مفصل زومیت با رئیس هیأت مدیره اسنپ‌فود
00:55:58
بررسی لپ‌تاپ دانشجویی Asus Vivobook S14
بهترین لپ‌تاپ دانشجویی وجود ندار... بررسی Asus Vivobook S14
00:11:41
عکس گوشی‌های گلکسی A26 و A36 سامسونگ در کنارهم
بررسی گوشی‌های گلکسی A26 و A36 سامسونگ
00:16:53
گفتگو زومیت با مدیرعامل فیلمنت
گفتگو با مدیرعامل فیلم‌نت؛ از نتفلیکس بهتر خواهیم شد!
00:57:47
تصویر ماشین‌ لباسشویی LG WT1310YJ
خشک‌شویی رو بیار خونه‌! ماشین لباس‌شویی Wash Tower LG
00:05:50
جنجالی‌ترین ویژگی ویندوز ۱۱؛ نگاه نزدیک به Recall مایکروسافت 👀
جنجالی‌ترین ویژگی ویندوز ۱۱؛ نگاه نزدیک به Recall مایکروسافت
00:13:09
عکس گوشی شیائومی ۱۵ اولترا در کنار جعبه دستگاه
آنباکس و نگاه نزدیک شیائومی ۱۵ اولترا
00:12:44
عکس گوشی آیفون ۱۶ ای در دست
بررسی آیفون ۱۶ ای؛ ارزون‌ترین آیفون سال
00:13:37
پرچمدار میان‌رده‌های سامسونگ؛ بررسی گلکسی A56
پرچمدار میان‌رده‌های سامسونگ؛ بررسی گلکسی A56
00:12:58
کولر بادی یا واترکولینگ؟ بهترین راه خنک کردن پردازنده کدومه؟ 🌡️
کولر بادی یا واترکولینگ؟ بهترین راه خنک کردن پردازنده کدومه؟
00:16:44
عکس بهزاد با آیکون‌های گرد شده iOS19
iOS19 قراره چه فرقی کنه؟ نگاهی به تمام تغییرات احتمالی
00:10:59
اوضاع عجیب سامسونگ! 💩
اوضاع عجیب سامسونگ! 💩
00:07:04
آیفون ۱۷ این شکلیه؟
سری آیفون ۱۷ اینجاست! 🔥 داغ داغ از پرینترسه‌بعدی درومده
00:17:17
زومکست مصاحبه با معاون ارشد فروشگاه مرکزی لنوو و مدیرعامل شرکت الماس پهنه رایانه پایتخت
لنوو در ایران؛ همه‌چیز درباره لپ‌تاپ‌های لنوو و خدمات آن
00:17:54
چرا نباید گلکسی اس ۲۵ اولترا بخریم؟ ⛔
چرا نباید گلکسی اس ۲۵ اولترا بخریم؟ ⛔
00:27:52
جعبه گشایی آیفون ۱۶ ای اپل
ارزون‌ترین آیفون اپل اینجاست! 😏 جعبه‌گشایی iPhone 16e
00:12:01
مقایسه دوربین بزرگ زومیت
بزرگ‌ترین مقایسه دوربین زومیت 🔥 کی حرف آخرو می‌زنه؟
00:16:44
زوم کست آچاره
آچاره؛ داستان استارتاپی که همه کارات رو انجام می‌ده!
00:42:40
تبلت یا لپ‌تاپ؛ کدوم برای شما مناسب‌تره؟ 🏆
تبلت یا لپ‌تاپ؛ کدوم برای شما مناسب‌تره؟ 🏆
00:26:47
با Kling AI ویدیو بساز
آموزش جامع ساخت ویدیو و عکس با هوش مصنوعی Kling AI
00:31:26
آموزش کامل و جامع نصب ویندوز ۱۱ + پارتیشن‌بندی و ...
آموزش کامل و جامع نصب ویندوز ۱۱ + پارتیشن‌بندی و ...
00:38:14
LG QNED86 TV
بهترین انتخاب برای گیم و فیلم! بررسی تلویزیون ۸۶ اینچی ال‌جی
00:12:39
43 مطلب
کالکشن بیوگرافی
بیوگرافی بزرگان علم و فناوری با زندگی و دستاوردهای استادان نوآوری و شکل‌دهندگان دنیای علم و تکنولوژی آشنا شوید.
58 مطلب
لوگوی اندروید
ترفند ها و آموزش های اندروید در مجموعه مطالعاتی آموزش اندروید با برترین و کاربردی‌ ترین ترفند های اندروید آشنا خواهید شد و صفر تا صد تبلت و گوشی اندرویدی خود را آموزش می‌بینید.
14 مطلب
طرح مفهومی سخت‌افزار
شیرجه در سخت افزار با مقالات سخت‌افزاری زومیت در دریای هیجان‌انگیز سخت‌افزار از CPU و GPU تا هوش مصنوعی و شرکت‌های فناوری پیشرو شیرجه بزنید.
18 مطلب
پیکان زرد در کنار کنسول گیم‌بوی و نوکیا 6600
ماشین زمان با مقالات «ماشین زمان» به گذشته دنیای فناوری سفر کنید و همراه ما محصولات و تکنولوژی‌های نوستالژیک را مرور کنید.
47 مطلب
کره لاس وگاس درکنار شاتل فضایی
مهندسی بی‌نهایت داستان ساخت پیچیده‌ترین و خلاقانه‌ترین سازه‌های مهندسی دنیا، از آسمان‌خراش‌های بلند تا شاتل‌های فضایی را در بخش مهندسی بی‌نهایت دنبال کنید.

مقایسه قیمت و مشخصات 🛒

پنل جلو و پشت گوشی موبایل گلکسی A36 سامسونگ ارغوانی / Samsung Galaxy A36پنل جلو و پشت گوشی موبایل گلکسی A36 سامسونگ ارغوانی / Samsung Galaxy A36
3.9
گلکسی A36 سامسونگ

از23,489,000تومان

پنل جلو و پشت گوشی موبایل گلکسی A36 سامسونگ سبز نعنایی / Samsung Galaxy A36پنل جلو و پشت گوشی موبایل گلکسی A36 سامسونگ سبز نعنایی / Samsung Galaxy A36
3.7
گلکسی A26 سامسونگ

از17,678,000تومان

پنل جلو و پشت گوشی موبایل گلکسی A56 سامسونگ زیتونی / Samsung Galaxy A56پنل جلو و پشت گوشی موبایل گلکسی A56 سامسونگ زیتونی / Samsung Galaxy A56
3.8
گلکسی A56 سامسونگ

از26,999,000تومان

پنل جلو و پشت گوشی موبایل پوکو X7 شیائومی مشکی و زرد / Xiaomi Poco X7پنل جلو و پشت گوشی موبایل پوکو X7 شیائومی مشکی و زرد / Xiaomi Poco X7
4
پوکو X7 شیائومی

از21,648,000تومان

پنل جلو و پشت گوشی موبایل پوکو X7 پرو شیائومی مشکی و زرد / Xiaomi Poco X7 Proپنل جلو و پشت گوشی موبایل پوکو X7 پرو شیائومی مشکی و زرد / Xiaomi Poco X7 Pro
4.7
پوکو X7 پرو شیائومی

از26,548,000تومان

پنل جلو و پشت گوشی موبایل گلکسی اس 25 سامسونگ سرمه ای / Samsung Galaxy S25پنل جلو و پشت گوشی موبایل گلکسی اس 25 سامسونگ سرمه ای / Samsung Galaxy S25
4.4
گلکسی اس 25 سامسونگ

از104,500,000تومان

پنل جلو و پشت گوشی موبایل آیفون 16 اپل آبی / Apple iPhone 16پنل جلو و پشت گوشی موبایل آیفون 16 اپل آبی / Apple iPhone 16
3.6
آیفون 16 اپل

از68,320,000تومان

پنل جلو و پشت گوشی موبایل آیفون 16 پرو مکس اپل مشکی / Apple iPhone 16 Pro Maxپنل جلو و پشت گوشی موبایل آیفون 16 پرو مکس اپل مشکی / Apple iPhone 16 Pro Max
3.7
آیفون 16 پرو مکس اپل

از110,750,000تومان

پنل جلو و پشت گوشی موبایل آیفون 16 پرو اپل بژ / Apple iPhone 16 Proپنل جلو و پشت گوشی موبایل آیفون 16 پرو اپل بژ / Apple iPhone 16 Pro
4.4
آیفون 16 پرو اپل

از85,520,000تومان

پنل جلو و پشت گوشی موبایل آیفون 16 پلاس اپل صورتی / Apple iPhone 16 Plusپنل جلو و پشت گوشی موبایل آیفون 16 پلاس اپل صورتی / Apple iPhone 16 Plus
3.6
آیفون 16 پلاس اپل

از79,000,000تومان

کنسول بازی پلی استیشن 5 پرو سونی / Sony PlayStation 5 Proکنسول بازی پلی استیشن 5 پرو سونی / Sony PlayStation 5 Pro
4.1
اپل ایرپادز 4 به همراه کیساپل ایرپادز 4 به همراه کیس
3
اپل ایرپاد 4

از9,180,000تومان

پنل جلو و پشت گوشی موبایل گلکسی A55 سامسونگ آبی روشن / Samsung Galaxy A55پنل جلو و پشت گوشی موبایل گلکسی A55 سامسونگ آبی روشن / Samsung Galaxy A55
4.2
گلکسی A55 سامسونگ

از25,198,000تومان

پنل جلو و پشت گوشی موبایل گلکسی A15 سامسونگ سرمه ای تیره / Samsung Galaxy A15پنل جلو و پشت گوشی موبایل گلکسی A15 سامسونگ سرمه ای تیره / Samsung Galaxy A15
4.4
گلکسی A15 سامسونگ

از13,990,000تومان

پنل جلو و پشت گوشی موبایل پوکو X6 پرو شیائومی مشکی / Xiaomi Poco X6 Proپنل جلو و پشت گوشی موبایل پوکو X6 پرو شیائومی مشکی / Xiaomi Poco X6 Pro
4.3
پوکو X6 پرو شیائومی

از25,989,000تومان

پنل جلو و پشت گوشی موبایل پوکو X6 شیائومی سفید / Xiaomi Poco X6پنل جلو و پشت گوشی موبایل پوکو X6 شیائومی سفید / Xiaomi Poco X6
4
پوکو X6 شیائومی

از25,129,000تومان

پنل جلو و پشت گوشی موبایل پوکو F6 پرو شیائومی مشکی / Xiaomi Poco F6 Proپنل جلو و پشت گوشی موبایل پوکو F6 پرو شیائومی مشکی / Xiaomi Poco F6 Pro
4.5
پوکو F6 پرو شیائومی

از38,766,000تومان

گوشی موبایل گلکسی زد فولد 6 سامسونگ صورتی / Samsung Galaxy Z Fold6گوشی موبایل گلکسی زد فولد 6 سامسونگ صورتی / Samsung Galaxy Z Fold6
4.2
پنل جلو و پشت گوشی موبایل گلکسی A35 سامسونگ بنفش روشن / Samsung Galaxy A35پنل جلو و پشت گوشی موبایل گلکسی A35 سامسونگ بنفش روشن / Samsung Galaxy A35
4.3
گلکسی A35 سامسونگ

از21,989,000تومان

پنل جلو و پشت تبلت آیپد پرو 13 اپل نسخه 2024 مشکی / Apple iPad Pro 13 2024پنل جلو و پشت تبلت آیپد پرو 13 اپل نسخه 2024 مشکی / Apple iPad Pro 13 2024
3.9
موبایل آیفون 13 اپل / Apple iPhone 13موبایل آیفون 13 اپل / Apple iPhone 13
4.1
آیفون 13 اپل

از47,060,000تومان

گوشی موبایل ردمی نوت 13 پرو شیائومی / Xiaomi Redmi Note 13 Pro سفیدگوشی موبایل ردمی نوت 13 پرو شیائومی / Xiaomi Redmi Note 13 Pro سفید
4.4
پنل جلو و پشت گوشی موبایل گلکسی اس 24 سامسونگ زرد / Samsung Galaxy S24پنل جلو و پشت گوشی موبایل گلکسی اس 24 سامسونگ زرد / Samsung Galaxy S24
4.4
گلکسی اس 24 سامسونگ

از85,860,000تومان

موبایل آیفون 13 پرو مکس اپل آبی / APPLE IPHONE 13 PRO MAX Sierra blueموبایل آیفون 13 پرو مکس اپل آبی / APPLE IPHONE 13 PRO MAX Sierra blue
3.5
آیفون 13 پرو مکس اپل

از66,500,000تومان

گوشی آیفون 14 پرو مکس رنگ بنفش تیرهگوشی آیفون 14 پرو مکس رنگ بنفش تیره
3.6
آیفون 14 پرو مکس اپل

از79,000,000تومان

موبایل آیفون 12 اپل مشکی / Apple iPhone 12 blackموبایل آیفون 12 اپل مشکی / Apple iPhone 12 black
4
آیفون 12 اپل

از43,637,000تومان

گوشی موبایل آیفون 13 پرو اپل / Apple iPhone 13 Pro آبیگوشی موبایل آیفون 13 پرو اپل / Apple iPhone 13 Pro آبی
4.1
آیفون 13 پرو اپل

از59,999,000تومان

Xiaomi Poco X4 Pro 5G / گوشی موبایل پوکو X4 پرو شیائومی 5G خاکستریXiaomi Poco X4 Pro 5G / گوشی موبایل پوکو X4 پرو شیائومی 5G خاکستری
3.7
پوکو X4 پرو شیائومی 5G

از18,590,000تومان

بهترین مقالات زومیت

مشاهده همه
با چشم باز خرید کنید
زومیت شما را برای انتخاب بهتر و خرید ارزان‌تر راهنمایی می‌کند
ورود به بخش محصولات