توضیح نهایی فیسبوک در مورد دلیل ممنوعیت انتشار محتوای خاص

سه‌شنبه ۱۱ اردیبهشت ۱۳۹۷ - ۱۲:۰۰
مطالعه 7 دقیقه
در میان چالش‌برانگیزترین مسائل فیسبوک، شاید بتوان نقش نظارتی و اجرایی این شرکت در آزادی بیان ۲ میلیارد کاربر را مهم‌تر از همه قلمداد کرد.
تبلیغات

شبکه اجتماعی فیسبوک در حال تصمیم‌گیری برای حذف برخی پست‌ها و چرایی حذف آن‌ها است. فیسبوک در روز سه‌شنبه‌ی هفته پیش برای اولین‌ بار دستورالعملی ۲۷ صفحه‌ای به‌ نام استانداردهای جامعه منتشر کرد و آن را به هزاران متصدی بخش سانسور خود تحویل داد. مجموعه‌ی دستورالعمل، شامل ده‌ها موضوع از قبیل سخنان تنفرآمیز، تصاویر خشن، ارائه اطلاعات نادرست و تبلیغات تروریستی است. طبق اعلام شرکت، دستورالعمل، تصمیمات فیسبوک را به کاربران می‌رساند و دری جدید از شفافیت برای کاربران، عموم و طرفدارانی می‌گشاید که قبلا تصمیمات فیسبوک را خودسرانه و غیر شفاف می‌دانستند و از آن انتقاد می‌کردند. دستورالعمل جدید پیشنهادهایی برای تشخیص تفاوت بین شوخ‌طبعی، طعنه و سخنان تنفرآمیز ارائه می‌دهد. 

فیسبوک و نقض حریم خصوصی

مونیکا بیکرت، رئیس  بخش مدیریت سیاست جهانی فیسبوک، در مصاحبه‌ای گفت:

ما می‌خواهیم به مردم شفافیت بدهیم تا آن‌ها استانداردهای ما را بشناسند.

او ابزار امیدواری کرد که مردم با انتشار دستورالعمل، منظورش را بهتر متوجه بشوند:

ما می‌خواهیم به‌طور همزمان امنیت و توانایی آزادی بیان را به مردم بدهیم.

مسئولان بخش سانسور فیسبوک که تعدیل‌کننده محتوا نامیده می‌شوند، زیر تیغ انتقادات گروه‌های حقوق شهروندی هستند؛ چراکه به‌اشتباه پست‌هایی را که توسط اقلیت‌های قربانی تهمت‌های نژادی منتشر شده بودند، پاک کردند. تعدیل‌کنندگان در تشخیص تفاوت بین فرد تهمت‌زننده و فردی که از تهمت‌ برای نشان دادن وضعیت اسفناک قربانی شدن خود استفاده می‌کند، مشکل داشته‌اند.

تعدیل‌کنندگان در نمونه‌ای دیگر، یک عکس نمادین جنگ ویتنام از کودکی که درحال فرار از بمب آتش‌زا بود، پاک کردند و مدعی شدند که عریانی دختربچه با سیاست‌های فیسبوک تناقض دارد (البته عکس بعد از اعتراضات سازمان‌های خبری احیا شد). تعدیل‌کنندگان همچنین پست‌هایی از فعالان و روزنامه‌نگاران میانمار، فلسطین و کشمیر را پاک کرده‌اند و به طرفداران جنبش الماس و ابریشم ترامپ گفتند که پست‌ها برای جامعه‌ی فیسبوک نامناسب هستند.

انتشار دستورالعمل‌ها تنها بخشی از موج شفافیتی است که فیسبوک برای آرام کردن منتقدان به آن تکیه زده است. فیسبوک همچنین بعد از اینکه نتوانست به‌خوبی از داده‌ها و اطلاعات کاربرانش محافظت کند و تحت انتقاد قرار گفت، تبلیغاتی سیاسی منتشر کرد و وضعیت کنترل حریم خصوصی خودش را بهبود بخشید.

فیسبوک به‌ خاطر مسئله سو‌ء استفاده از داده‌ها توسط کمبریج آنالیتیکا تحت بررسی و بازرسی کمیسیون تجاری فدرال ایالات متحده قرار گرفت و مارک زاکربرگ اخیرا به همین دلیل، توضیحاتی در خصوص این مسئله برای کنگره آمریکا ارائه داد. طبق گفته بیکرت، بحث در مورد به‌اشترک‌گذاری دستورالعمل، ابتدا در پاییز سال گذشته شروع شد و ارتباطی‌ با جنجال کمبریج نداشت.

سیاست‌های محتوایی فیسبوک که در سال ۲۰۰۵ آغاز شد، مسائلی مثل عریانی و انکار هولوکاست را در همان اوایل، جزو برنامه‌های خود داشت. اما آن توضیح یک‌صفحه‌ای در سال ۲۰۰۸، اکنون به ۲۷ صفحه‌ی جزئی‌تر تبدیل شده است.

با ورود حدود یک‌سوم جمعیت دنیا به فیسبوک، تیم بیکرت هم گسترش خواهد یافت و احتمالا د رسال‌ آینده شاهد رشد آن خواهیم بود. این تیم شامل ۷۵۰۰ بازبینی‌کننده در جاهایی مثل آستین، دوبلین و فیلیپین است و به پست‌ها دسترسی ۲۴ ساعته دارد. اعضای تیم با ۴۰ زبان بر پست‌ها احاطه دارند. افراد تعدیل‌کننده بعضی‌ اوقات از قشر کارکنان قراردادی و موقتی هستند که آشنایی فرهنگی زیادی با محتویات مورد بازبینی ندارند و تصمیمات پیچیده‌ای در خصوص پیاده‌سازی قوانین فیسبوک اتخاذ می‌کنند.

خود بیکرت از کارشناسان سطح بالایی مثل یک وکیل حقوق بشر، مشاور تجاوز، کارشناس ضد تروریسم از وست‌پوینت و یک پژوهشگر با دکترا در زمینه‌ی بررسی سازمان‌های افراطی اروپایی، به‌عنوان تیم بازبینی محتوا استفاده می‌کند.

فیسبوک

فعالان و کاربران هم به‌ دلیل نبود یک فرآیند مشخص برای بازبینی پست‌هایشان خسته شده بودند. (کاربران فیسبوک می‌توانستند اکانتی را کاملا پاک کنند، ولی پست‌های شخصی را نمی‌توانستند حذف کنند). واشنگتن‌ پست قبلا اسنادی از اینکه افراد چگونه با این شرایط بد کنار می‌آیند تهیه کرده بود. افراد وارد زندان فیسبوک می‌شدند، بدون اینکه دلیلش را بدانند.

مالکیا سیریل، یکی از فعالان جنبش «جان سیاه‌پوستان مهم است» در اوکلند کالیفرنیا و مدیر اجرایی مرکز عدالت رسانه، در بین ائتلاف بیش از ۷۰ گروه حقوق شهروندی‌ بود که فیسبوک را درسال ۲۰۱۷ برای اصلاح سیستم اعتدال محتویات نژادپرستانه، تحت فشار قرار دادند. ائتلاف خواستار تغییرات زیادی در فیسبوک بود که یکی از آن‌ها بازبینی درخصوص پست‌های پاک‌شده بود. سیریل می‌گوید:

آن‌ها در آن زمان به ما گفتند که نمی‌توانند چنین کاری بکنند و این کار را نخواهند کرد و واقعا هم دیگر خود را درگیر آن نکردند. آن‌ها به ما گفتند که وقتی حرفی جدید برای گفتن داشته باشند برمی‌گردند.

طبق گفته سیریل، اقدامات اخیر فیسبوک، با وجود نیت خیرخواهانه‌اش، بازهم به‌ اندازه‌ی لازم، گروه‌های افراطی و برترپندار نژادی سفیدپوست را تحت کنترل قرار نداد و آن‌ها هنوز اجازه فعالیت دارند. او می‌گوید:

اقدامات اخیر بسیار محدود بودند. اکنون به یک گروه بازرسی مستقل برای حفاظت از حقوق اساسی شهروندی کاربران نیاز است؛ مخصوصا کاربران آسیب‌پذیری که در خیابان‌ها با نفرتی که به‌صورت آنلاین به‌ وجود آمده، مواجه می‌شوند.

طبق گفته زهرا بیلو، مدیر اجرایی دفتر شورای روابط آمریکایی-اسلامی منطقه‌ی خلیج سان‌فرانسیسکو، فرآیند واخواهی حقوق فیسبوک و دستورالعمل جدید آن می‌تواند پیشرفت مثبتی باشد؛ ولی شبکه اجتماعی فیسبوک اگر بخواهد مکانی امن و مناسب باقی بماند، هنوز جای پیشرفت زیادی دارد و باید اقدامات زیادی انجام دهد.

فیسبوک

به گفته‌ی بیلو، طبق سیاست‌های جدید فیسبوک سخنان تنفرآمیز باید ممنوع شوند و زاکربرگ هم از عملی شدن این سیاست تا پایان این ماه خبر داد؛ ولی حداقل چندین صفحه‌ای که نشان‌دهنده خودبرترپنداری نژاد سفید هستند، هنوز در فیسبوک فعالیت دارند. او می‌گوید:

یکی از سؤالاتی که اکثر اعضای جامعه‌ی اسلامی می‌پرسند این است که فیسبوک چگونه از کاربرانش درخصوص سازماندهی شدن سخنان تنفرآمیز، فشار سفیدپوستان نژادپرست، فعالان گرایش سیاسی حزب راست، جمهوری‌خواهان یا روس‌ها علیه مسلمانان، همجنس‌گرایی (دگرباشی) و افراد بی‌نام و نشان محافظت می‌کند.

پست زهرا بیلو دو هفته بعد از انتخاب دونالد ترامپ به‌عنوان رئیس جمهور، سانسور شد. پست او حاوی عکس نامه‌ای دست‌نویس و ارسالی‌ به مسجد سن‌خوزه بود. در نامه نوشته شده بود:

او (ترامپ) همان کاری را با شما مسلمانان خواهد کرد که هیتلر با یهودی‌ها کرد.

تیم بیکرت سال‌ها روی توسعه‌ی سیستم نرم‌افزاری کار می‌کرد که بتواند دلایل پاک شدن پست را طبقه‌بندی کند تا کاربران بتوانند اطلاعات دقیق‌تری از این موضوع به‌ دست بیاورند. فیسبوک هم می‌تواند با استفاده از این سیستم، تعداد سخنان تنفرآمیز موجود در پست‌های هر سال را دنبال کند و به‌عنوان مثال، گروه‌های خاصی را که بیش از بقیه در عرصه چنین پست‌هایی فعالیت دارند تعلیق کند.

فیسبوک

در حال حاضر افرادی که پست‌شان در فیسبوک پاک می‌شود، یک پیام کلی دریافت می‌کنند که مورد زیر پا گذاشتن استانداردهای جامعه فیسبوک به آن‌ها هشدار می‌دهد. بعد از بیانیه‌ی اخیر فیسبوک، افراد علت پاک شدن پست خود را خواهند دانست؛ اینکه به چه دلیلی مثلا برای عریانی، سخنان تنفرآمیز یا تصویر خشونت‌آمیز حذف شده است. طبق گفته‌ی یکی از مدیران اجرایی فیسبوک، تیم روی ساخت ابزار بیشتری کار می‌کرد. الن سیلور، معاون عملیاتی فیسبوک، می‌گوید:

ما می‌خواهیم در مورد دلیل حذف پست‌ها، جزئیات و اطلاعات بیشتری ارائه دهیم. کارهای زیادی در این بخش داریم و متعهدیم که چنین اصلاحاتی به‌ وجود بیاوریم.

اگرچه سیستم تعدیل محتوا هنوز تا حد زیادی تحت کنترل انسان‌ قرار دارد؛ ولی فیسبوک از فناوری‌ برای کمک‌ به انسان‌ها استفاده می‌کند. این شرکت اخیرا از نرم‌افزاری برای شناسایی گزارش‌های (ریپورت) تکراری استفاده می‌کند. چنین کاری، در زمان بازبینی محتوای تکراری توسط افراد صرفه‌جویی می‌کند. نرم‌افزار همچنین می‌تواند زبان پست و برخی‌ از تم‌های آن را شناسایی کند؛ درنتیجه پست را در اختیار کارشناسی با تخصص مناسب برای بازبینی قرار دهد.

طبق گفته سیلور، فیسبوک همچنین می‌تواند تصاویری را که قبلا پست شده‌اند، شناسایی کند؛ ولی نمی‌تواند تصاویر جدید را تشخیص دهد. به‌عنوان مثال، اگر یک سازمان تروریستی ویدیویی از سر بریدن را دوباره پست کند که فیسبوک قبلا آن را پاک کرده است، سیستم فیسبوک فورا متوجه دوباره پست شدن ویدیو می‌شود، اما نمی‌تواند ویدیوهای سر بریدن جدید را شناسایی کند. اکثریت آیتم‌هایی که توسط جامعه‌ی فیسبوک علامت‌گذاری می‌شوند، ظرف مدت ۲۴ ساعت بررسی می‌شوند.

مقیاس عملیاتی حتی اگر با دقت ۹۹ درصدی عمل کند، بازهم اشتباهات زیادی خواهد داشت

کارکنان و مدیران اجرایی ارشد که تصمیم‌گیری درمورد مسائل چالش‌برانگیز دنیا بر عهده آن‌ها است، هر دو هفته یک‌بار نشستی ترتیب می‌دهند و درمورد مزایا و معایب سیاست‌های بالقوه شرکت بحث می‌کنند. تیم‌های حاضر در جلسه باید با پژوهش، راه‌ حل‌های ممکن و پیشنهادات خود را ارائه دهند. آن‌ها همچنین باید از سازمان‌های خارج از فیسبوک که از آن‌ها مشورت دریافت می‌کنند لیستی تهیه کنند. بیکرت و سیلوا در مصاحبه‌ای امکان اشتباه در قضاوت‌های فیسبوک را رد نکردند. سیلور گفت:

مقیاس عملیاتی ما حتی اگر با دقت ۹۹ درصدی عمل کند، بازهم اشتباهات زیادی خواهد داشت.
تبلیغات
داغ‌ترین مطالب روز

نظرات

تبلیغات