احتمالا تاکنون همهی شما دربرابر دیپفیک و عواقب خطرناک ناشی این فناوری چیزهایی شنیدهاید؛ قابلیتی خارقالعاده ازسوی یادگیری ماشین برای تولید فایلهای ویدئویی و صوتی از افراد که بهگونهای طراحی شده است که تا حد امکان طبیعی جلوه کند. در پی درک خطرات بالقوه ناشی از این فناوری، بسیاری از پژوهشگران در تلاش هستند تا بتوانند روشهایی بهتر را برای کشف صحت اصالت محصولات صوتی و تصویری بیابند.
هماینک در مؤسسهی علوم اعصاب دانشگاه اورگون، یکی از عجیبترین ایدهها برای مقابله با دیپفیک در حال بررسی است. یک گروه پژوهشی در تلاش هستند به موشها آموزش دهند تا بتوانند بینظمیهای موجود در یک سخنرانی دیپفیک را تشخیص دهند؛ قابلیتی که بهنظر میرسد حیوانات واقعا در آن تبحر ویژهای دارند. امید میرود که این پژوهشها بتواند درنهایت بهیاری رسانههایی نظیر یوتیوب و فیسبوک بیاید تا بهکمک هم بتوان محتوای جعلی را پیش از انتشار در فضای آنلاین شناسایی و پاکسازی کرد. البته باید بدانید که شرکتها واقعا نیازی ندارند برای تشخیص این نوع محتواها، عملا موشها را بهاستخدام خود درآورند. جاناتان ساندرز، یکی از پژوهشگران پروژه میگوید:
پژوهشگران امیدوار هستند موشها بتوانند بینظمیهای درون اصوات محتوای دیپفیک را بسیار بهتر از انسانها تشخیص دهند.
طبقهبندی به شیوهی موشها
ساندرز و تیمش به موشها آموزش دادهاند تا بتوانند یک مجموعهی کوچک از اصوات را که بهمنظور تشخیص یک واژه از واژههای دیگر بهکار میروند، درک کنند. او توضیح میدهد:
هر زمان که موشها بتوانند یک صوت را بهدرستی تشخیص دهند، پاداش دریافت میکنند؛ موضوعی که بنابر تجربهی فعلی، در ۸۰ درصد از موارد مصداق دارد. البته این روش هنوز کامل و بینقص نیستِ ولی استفادهاز آن، در کنار روشهای فعلی برای تشخیص دیپفیک میتواند اطلاعات ارزشمندی ارائه دهد.
اشتباهات و عدم اعتمادپذیری
بیشتر محتواهای دیپفیک که امروزه با آن مواجه هستیم، چندان واقعی طراحی نمیشوند. این محتواها بیشتر با هدف شوخی و استهزاء بهکار میروند تا جعل هویت. نمونهای از این موارد مربوطبه ویدئوی دیپفیکی از مارک زاکربرگ است که بیپرده درمورد دزدیدن دادههای کاربران سخن میگوید. اما این باعث نمیشود که بگوییم در آینده هم قرار نیست کار به موضوع جعل هویت کشیده شود. این تهدیدها همین امسال نیز تبدیل به یکی از موضوعات مهم در دو کنفرانس مهم دنیای هک (با نامهای Black Hat و Def Con) شدهاند. متیو پرایس، از اعضای شرکت امنیت سایبری Zerofox میگوید:
پرایس درمورد جدیدترین روشهای ساخت دیپفیک و همچنین آخرین فناوریها برای تشخیص آنها صحبت میکند. او در خلال سخنرانی خود، توضیح میدهد که چگونه میتوان از الگوریتمها برای تشخیص حرکات غیرطبیعی سر یا نورپردازی متناقض استفاده کرد. یکی از مدارکی که معمولا در دیپفیکهای بدون کیفیت دیده میشود، این است که اشخاص در آن معمولا پلک نمیزنند.
اما این روشها همگی براساس ضعفهای فناوری فعلی یا اشتباهاتی بنا شدهاند که سازندگان چنین ویدئوهایی مرتکب میشوند. مسلما قرار نیست این نوع مشکلات تا ابد وجود داشته باشند و بالاخره روزی فناوری راهی برای خلق بینقصترین ویدئوهای جعلی خواهد یافت. پرایس میگوید:
این نگرانی ازسوی گروهی از سیاستمداران ردهبالای آمریکایی مطرح شده است که دیپفیک را بهعنوان موجی تازه از تلاشها در جهت اشاعهی اخبار غلط در میان رایدهندگان آمریکایی میبینند. مارکو رابیو، سناتور جمهوریخواه آمریکایی طی سخنانی در اویل سال جاری میلادی گفت:
جعلی اما بیارزش
در این میان کسانی نیز هستند که می گویند درمورد تهدید ناشیاز دیپفیک بیشاز حد اغراق شده است. بروس اشنیر، متخصص امنیت سایبری از دانشکدهی هاروارد کندی بر این باور است که تلاشها پیرامون تشخیص دیپفیک کاملا از مسیر اصلی خود خارج شده است. او میگوید:
سرعت پخش ویدئوی مربوطبه نانسی پلوسی ۲۵ درصد کاهش یافته بود.
اشنیر به یک ویدئوی پریازدید درمورد یکی از اعضای دموکرات کنگره بهنام نانسی پلوسی اشاره دارد که در آن صدای او بهگونهای تغییر یافته است که به شنونده این حس القا شود که شخص سخنران احتمالا تحتتأثیر مشروبات الکلی بوده است. با اینکه جعلیبودن کلیپ یادشده بهسرعت افشا شد، اما این افشاگری اهمیت چندانی نداشت. این ویدئو بیش از یک میلیون بار دیده شد. اشنیر میگوید:
درواقع، یکی از دیدگاههای پرطرفدار میان متخصصان این است که درنهایت مباحثات پیرامون دیپفیک ممکن است از خود دیپفیک نیز آثار ویرانگرتری بهدنبال داشته باشد. شاید ترس ما از فناوری باعث شود که روزی یک سیاستمدار حتی هواداران خود را مجاب کند که یک موضوع کاملا واقعی نیز چیزی بیش از یک دیپفیک نبوده است.
نظرات