دانشمندان درصدد بهره‌گیری از موش‌ها برای مقابله با دیپ فیک هستند

چهارشنبه ۲۳ مرداد ۱۳۹۸ - ۱۱:۳۰
مطالعه 6 دقیقه
دانشمندان می‌‌گویند احتمالا ما هم‌اکنون نیز به یک سلاح بیولوژیکی جدید در برابر جریان اطلاعات‌‌رسانی جعلی دسترسی داریم: موش‌‌ها.

احتمالا تاکنون همه‌ی شما دربرابر دیپ‌‌فیک و عواقب خطرناک ناشی این فناوری چیزهایی شنیده‌‌اید؛ قابلیتی خارق‌‌العاده ازسوی یادگیری ماشین برای تولید فایل‌‌های ویدئویی و صوتی از افراد که به‌‌گونه‌‌ای طراحی شده است که تا حد امکان طبیعی جلوه کند. در پی درک خطرات بالقوه ناشی از این فناوری‌‌، بسیاری از پژوهشگران در تلاش هستند تا بتوانند روش‌‌هایی بهتر را برای کشف صحت اصالت محصولات صوتی و تصویری بیابند.

هم‌اینک در مؤسسه‌‌ی علوم اعصاب دانشگاه اورگون، یکی از عجیب‌‌ترین ایده‌‌ها برای مقابله با دیپ‌‌فیک در حال بررسی است. یک گروه پژوهشی در تلاش هستند به موش‌‌ها آموزش دهند تا بتوانند بی‌‌نظمی‌‌های موجود در یک سخنرانی دیپ‌‌فیک را تشخیص دهند؛ قابلیتی که به‌‌نظر می‌‌رسد حیوانات واقعا در آن تبحر ویژه‌‌ای دارند. امید می‌‌رود که این پژوهش‌‌ها بتواند درنهایت به‌‌یاری رسانه‌هایی نظیر یوتیوب و فیسبوک بیاید تا به‌کمک هم بتوان محتوای جعلی را پیش از انتشار در فضای آنلاین شناسایی و پاکسازی کرد. البته باید بدانید که شرکت‌‌ها واقعا نیازی ندارند برای تشخیص این نوع محتواها، عملا موش‌‌ها را به‌‌استخدام خود درآورند. جاناتان ساندرز، یکی از پژوهشگران پروژه می‌‌گوید:

پژوهشگران امیدوار هستند موش‌ها بتوانند بی‌نظمی‌های درون اصوات محتوای دیپ‌فیک را بسیار بهتر از انسان‌ها تشخیص دهند.

طبقه‌‌بندی به شیوه‌ی موش‌‌ها

ساندرز و تیمش به موش‌‌ها آموزش داده‌‌اند تا بتوانند یک مجموعه‌‌ی کوچک از اصوات را که به‌‌منظور تشخیص یک واژه از واژه‌‌های دیگر به‌‌کار می‌‌روند، درک کنند. او توضیح می‌‌دهد:

هر زمان که موش‌‌ها بتوانند یک صوت را به‌‌درستی تشخیص دهند، پاداش دریافت می‌‌کنند؛ موضوعی که بنابر تجربه‌‌ی فعلی، در ۸۰ درصد از موارد مصداق دارد. البته این روش هنوز کامل و بی‌نقص نیستِ ولی استفاده‌از آن، در کنار روش‌‌های فعلی برای تشخیص دیپ‌‌فیک می‌‌تواند اطلاعات ارزشمندی ارائه دهد.

اشتباهات و عدم اعتمادپذیری

بیشتر محتواهای دیپ‌‌فیک که امروزه با آن مواجه هستیم، چندان واقعی طراحی نمی‌‌شوند. این محتواها  بیشتر با هدف شوخی و استهزاء به‌‌کار می‌‌روند تا جعل هویت. نمونه‌‌ای از این موارد مربوط‌‌به ویدئوی دیپ‌‌فیکی از مارک زاکربرگ است که بی‌‌پرده درمورد دزدیدن داده‌‌های کاربران سخن می‌‌گوید. اما این باعث نمی‌‌شود که بگوییم در آینده هم قرار نیست کار به موضوع جعل هویت کشیده شود. این تهدیدها همین امسال نیز تبدیل به یکی از موضوعات مهم در دو کنفرانس مهم دنیای هک (با نام‌‌های Black Hat و Def Con) ‌‌شده‌‌اند. متیو پرایس، از  اعضای شرکت امنیت سایبری Zerofox می‌‌گوید:

پرایس درمورد جدیدترین روش‌‌های ساخت دیپ‌‌فیک و همچنین آخرین فناوری‌‌ها برای تشخیص آن‌‌ها صحبت می‌‌کند. او در خلال سخنرانی خود، توضیح می‌‌دهد که چگونه می‌‌توان از الگوریتم‌‌ها برای تشخیص حرکات غیرطبیعی سر یا نورپردازی متناقض استفاده کرد. یکی از مدارکی که معمولا در دیپ‌‌فیک‌‌های بدون کیفیت دیده می‌‌شود، این است که اشخاص در آن معمولا پلک نمی‌‌زنند.

اما این روش‌‌ها همگی براساس ضعف‌‌های فناوری فعلی یا اشتباهاتی بنا شده‌‌اند که سازندگان چنین ویدئوهایی مرتکب می‌‌شوند. مسلما قرار نیست این نوع مشکلات تا ابد وجود داشته باشند و بالاخره روزی فناوری راهی برای خلق بی‌‌نقص‌‌ترین ویدئو‌‌های جعلی خواهد یافت. پرایس می‌‌گوید:

این نگرانی ازسوی گروهی از سیاست‌‌مداران رده‌‌بالای آمریکایی مطرح شده است که دیپ‌‌فیک را به‌‌عنوان موجی تازه از تلاش‌‌‌ها در جهت اشاعه‌‌ی اخبار غلط در میان رای‌‌دهندگان آمریکایی می‌‌بینند. مارکو رابیو، سناتور جمهوری‌‌خواه آمریکایی طی سخنانی در اویل سال جاری میلادی گفت:

جعلی اما بی‌‌ارزش

در این میان کسانی نیز هستند که می گویند درمورد تهدید ناشی‌‌از دیپ‌‌فیک بیش‌‌از حد اغراق شده است. بروس اشنیر، متخصص امنیت سایبری از دانشکده‌ی هاروارد کندی بر این باور است که تلاش‌‌ها پیرامون تشخیص دیپ‌‌فیک کاملا از مسیر اصلی خود خارج شده است. او می‌‌گوید:

سرعت پخش ویدئوی مربوط‌‌به نانسی پلوسی ۲۵ درصد کاهش یافته بود.

اشنیر به یک ویدئوی پریازدید درمورد یکی از اعضای دموکرات کنگره به‌‌نام نانسی پلوسی اشاره دارد که در آن صدای او به‌‌گونه‌‌ای تغییر یافته است که به شنونده این حس القا شود که شخص سخنران احتمالا تحت‌‌تأثیر مشروبات الکلی بوده است. با اینکه جعلی‌‌بودن کلیپ یادشده به‌‌سرعت افشا شد، اما این افشاگری اهمیت چندانی نداشت. این ویدئو بیش از یک میلیون بار دیده شد. اشنیر می‌‌گوید:

درواقع، یکی از دیدگاه‌‌های پرطرفدار میان متخصصان این است که درنهایت مباحثات پیرامون دیپ‌‌فیک ممکن است از خود دیپ‌‌فیک نیز آثار ویرانگرتری به‌‌دنبال داشته باشد. شاید ترس ما از فناوری باعث شود که روزی یک سیاستمدار حتی هواداران خود را مجاب کند که یک موضوع کاملا واقعی نیز چیزی بیش از یک دیپ‌‌فیک نبوده است.

مطالب مشابه

نظرات