انتشار ویدئو دیپ فیک از زاکربرگ، سیاست‌های فیسبوک را به چالش کشید

ویدئویی جعلی از زاکربرگ در اینستاگرام منتشر شده که حرف‌هایی درخورتأمل درباره‌ی قدرت فیسبوک به‌زبان آورده است. این شرکت در گذشته گفته بود چنین ویدئوهایی را از شبکه حذف نمی‌کند. 

ماه گذشته، فیسبوک از حذف ویدئو دست‌کاری‌شده‌ی نانسی پلوسی، رئيس مجلس نمایندگان آمریکا، خودداری کرد؛ اما این هفته این شرکت با مشکل جدیدی مواجه شده است: فیسبوک با ویدئو جعلی مربوط‌به مدیرعامل خود چه خواهد کرد؟ ویدئو مزبور که چند روز پیش در اینستاگرام، شبکه‌ی اجتماعی تحت مالکیت فیسبوک، منتشر شد، فیلمی جعلی از مارک زاکربرگ را نشان می‌دهد که رو به دوربین می‌گوید:

فقط یک لحظه فردی را تصور کنید که کنترل کامل بر اطلاعات به‌سرقت‌رفته‌ی میلیاردها انسان، اسرار، زندگی و آینده‌ی آن‌ها دارد. من این را مدیون Spectre هستم. Spectre به من نشان داد کسی که اطلاعات را کنترل می‌کند، کنترل آینده را دراختیار دارد.

این فیلم را دو هنرمند و یک شرکت تبلیغاتی با استفاده از ویدئو سخنرانی زاکربرگ در سال ۲۰۱۷ و بهره‌گیری از فناوری هوش مصنوعی ساخته‌اند. زاکربرگ در آن سخنرانی، درباره‌ی دخالت روس‌ها در انتخابات آمریکا سخن می‌گفت. فناوری استفاده‌شده در این کار که به «جعل عمیق» یا «فناوری دیپ‌فیک» (Deepfake Technology) معروف شده است، چهره‌ی زاکربرگ را طوری دست‌کاری کرده که گویی او مشغول گفتن جملاتی است که در واقعیت به زبان نیاورده است. به‌جای صدای زاکربرگ هم از صدای بازیگر در این ویدئو استفاده شده است. در آن پست اینستاگرامی، توضیح داده شده که این فیلم با استفاده از فناوری جای‌گذاری مکالمات ویدئویی (VDR) شرکت Canny AI تولید شده است.

اگر ارزیاب مستقل تشخیص دهد ویدئو مزبور دروغ است، الگوریتم‌های اینستاگرام آن را به کاربران پیشنهاد نخواهند کرد

این فایل ویدئویی و فایل‌های مشابه آن که چهره‌های مشهوری مانند کیم کارداشیان و دونالد ترامپ، رئیس جمهور آمریکا را هم به‌تصویر کشیده‌اند، بخشی از چیدمانی هنری به‌نام Spectre است که از ۶ تا ۱۱ژوئن در فستیوال شفیلد در بریتانیا به‌نمایش درآمد. این ویدئو اثر مشترک دو هنرمند به نام‌های بیل پوسترز (Daniel Howe) و دنیل هاو (Bill Posters) و استارتاپی به‌نام کانی (Canny AI) است که با همکاری چند شرکت دیگر به‌طورهم‌زمان روی این پروژه کار کرده‌اند و هدفشان نشان‌دادن میزان اهمیت فناوری در دست‌کاری اطلاعات بود.

در گذشته، فیسبوک قبول نکرد ویدئو دست‌کاری‌شده‌ای را از صفحاتش حذف کند که نانسی پلوسی را در حین سخنرانی در حالتی نامتعادل نشان می‌داد و با اعلام اینکه حتی تصاویر جعلی و دست‌کاری‌شده هم در سایت باقی می‌مانند، تنها به این بسنده کرد که رتبه‌ی ویدئو را کاهش دهد؛ یعنی افراد کمتری آن را در بخش News Feed صفحه‌ی فیسبوک خود مشاهده کنند. همچنین، ویدئو مربوط‌به نتیجه‌ی ارزیابی‌های کارشناسان مستقل راستی‌آزمایی نیز درکنار آن قرار گرفته بود.

نیل پاتس، مدیر روابط‌عمومی فیسبوک، در نشستی پارلمانی در کانادا در پاسخ به این پرسش که آیا با ویدئو‌ دست‌کاری‌شده‌ی زاکربرگ هم مانند ویدئو نانسی پلوسی رفتار خواهد شد، گفته بود اگر ویدئوها مثل هم باشند، بازهم به همان صورت رفتار خواهد شد. یکی از سخن‌گویان اینستاگرام به CNN Business گفت: «با این ویدئو همان‌طور رفتار خواهد شد که با همه‌ی اطلاعات نادرست در اینستاگرام رفتار می‌کنیم». او در ادامه بیان کرد اگر ارزیاب مستقل نیز ویدئو مزبور را دروغین تشخیص دهد، الگوریتم‌های سایت مشاهده‌ی آن را به کاربران پیشنهاد نخواهند کرد؛ یعنی از صفحه‌ی Explore و جست‌وجوی هشتگ‌ها حذف خواهد شد.

شاید آنچه باعث بغرنج‌شدن شرایط برای فیسبوک و اینستاگرام شد، درخواست CBS از این شرکت برای حذف ویدئو بود که روز سه‌شنبه مطرح شد. استارتاپ کانی کلیپ واقعی به‌کاررفته در ساختن ویدئو خود را از وب‌سایت خبری آنلاین CBS News دانلود کرده‌ است. یکی از سخن‌گویان این شبکه‌ی خبری به CNN Business گفت: «CBS از فیسبوک درخواست کرده این ویدئو را حذف کند که از CBSN استفاده‌ی غیرمجاز کرده است».

چگونگی برخورد فیسبوک با آن می‌تواند در آینده، به رویه‌ای در مدیریت این‌گونه موارد تبدیل شود. ویدئو پلوسی دیپ‌فیک نبود؛ بلکه فایل دست‌کاری‌شده‌ای با استفاده از روش‌های مرسوم برای ویرایش فیلم بود. CNN Business از فیسبوک پرسیده آیا قوانین خاصی درباره‌ی دیپ‌فیک وجود دارد؟

دیپ فیک / deepfake

این ویدئو که خبر آن را Vice اولین‌بار منتشر کرد، کنگره‌ی ایالات متحده را طوری برانگیخت که اعضای آن خود را برای اولین جلسه درباره‌ی تهدیدهای بالقوه‌ی ویدئوهای دیپ‌فیک آماده می‌کنند. اوایل سال جاری، مدیر اطلاعات ملی آمریکا (US National Intelligence) هشدار داد این احتمال وجود دارد که در آینده، دشمنان آمریکا با استفاده از فناوری دیپ‌فیک، کمپین‌هایی برای انتشار اخبار نادرست راه‌اندازی کنند و کشور را هدف قرار بدهند.

تا همین اواخر، این‌گونه شوخی‌ها و دست‌انداختن‌های ویدئویی خیلی به‌ندرت اتفاق می‌افتاد؛ چراکه ساختن آن‌ها خیلی سخت‌تر از ساختن ویدئوهایی با استفاده از عکس‌های غیرمتحرک است. باوجوداین، اکنون به‌لطف افزایش بی‌رویه‌ی GAN‌ها یا شبکه‌های متخاصم فعال، تولید آن‌ها شدت گرفته است. GANها از داده‌ها برای تولید محصولات جدید و از همین تکنیک برای تولید دیپ‌فیک‌ها استفاده می‌کنند. عمر بن‌امی (Omer Ben-Ami) و جاناتن هیمن (Jonathan Heimann)، بنیان‌گذاران شرکت کانی، می‌گویند برای ساخت ویدئو مربوط‌به زاکربرگ، صحنه‌ای کمتر از یک دقیقه را از صحبت‌های زاکربرگ انتخاب کرده‌اند و از الگوریتم برای ترکیب آن با صدای بازیگر و حرکات مناسب صورت استفاده کردند. ساختن نسخه‌ی اولیه‌ی آن تقریبا یک روز طول کشید و دوسه ساعت هم زمان برد تا نسخه‌ی نهایی آماده شود.

به‌گفته‌ی بن‌امی، آن‌ها برای ساختن ویدئو خود، از الگوریتمی اختصاصی استفاده کردند. مهندسان کانی ۲۱ ثانیه از ویدئویی هفت‌دقیقه ای را انتخاب کردند و الگوریتم خود را با استفاده از آن و نیز ویدئوهایی از صداپیشه‌ی این ویدئو آموزش دادند که در‌حال‌صحبت بود. سپس، فریم‌های داخل ویدئو واقعی زاکربرگ را طوری ساختند که با حرکات چهره‌ی صداپیشه مطابقت داشته باشد.

اگر کسی ویدئو را بدون صدا تماشا کند، نتیجه‌ی حاصل کاملا واقع‌بینانه است. کاملا مشخص است صدایی که روی ویدئو گذاشته شده، متعلق به زاکربرگ نیست؛ بلکه کسی تلاش می‌کند ادای او را دربیاورد. صرف‌نظر از این موضوع، این دیپ‌فیک روندی یکپارچه دارد و حرکات فردی که در آن رو به دوربین نشسته، کاملا شبیه زاکربرگ است.

به‌عقیده‌ی مدیران کانی، این ویدئو فرصتی برای آموزش مردم درباره‌ی استفاده‌هایی است که امروزه از هوش مصنوعی انجام می‌شود؛ اما باید آینده را هم در نظر گرفت:

ظرفیت حقیقی‌ای که در این فناوری شاهد هستیم، در توانایی‌های آن برای ایجاد مدلی واقع‌بینانه از بشر است. از دیدگاه ما، این گام بعدی در تکامل دیجیتال است که درنهایت، هرکدام از ما می‌توانیم نسخه‌ای دیجیتال از خود داشته باشیم؛ انسانی جهان‌شمول و جاودان. این اتفاق و روش روایت داستان‌ها و به‌اشتراک‌گذاشتن آن با دیگران، به‌یادآوردن عزیزانمان و تولید محتوا را تغییر خواهد داد.

از سراسر وب

  دیدگاه
کاراکتر باقی مانده

بیشتر بخوانید