هوش مصنوعی

اجلاس ایمنی هوش مصنوعی؛ راهی برای جلوگیری از نابودی بشر با AI؟

چهارشنبه ۱۷ آبان ۱۴۰۲ - ۱۳:۳۰
مطالعه 13 دقیقه
اجلاس ایمنی هوش مصنوعی ۲۰۲۳ برای اولین‌بار در تاریخ برگزار شد تا شروع تلاشی گسترده باشد برای جلوگیری از نابودی بشر به‌دست هوش مصنوعی.
تبلیغات

هوش مصنوعی و مدل‌های مبتنی‌بر آن مدت‌هاست که بین ما هستند؛ اما با رونمایی از چت‌بات ChatGPT و پس از آن، دیگر مولدهای هوش‌ مصنوعی مثل میدجرنی و Dall-E، همه چیز تغییر کرد. کم‌کم شگفت‌زدگی و لذت پرسیدن سوال‌های فراوان از چت‌بات‌ها، جای خود را به ترس و دلهره داد. مردم به این فکر افتادند که اگر روزی هوش مصنوعی جایگاه شغلی‌شان را به‌خطر بیندازد چه باید بکنند و دولت‌ها به ربات‌هایی فکر می‌کردند که از کنترل انسان خارج شده‌اند و با درکی فراانسانی در پی تیشه زدن به ریشه‌ی بشریت هستند.

فیلم‌های علمی‌تخیلی درنهایت کار خودشان را کردند، مقاله‌های فراوانی در این مورد نوشته شد و نظریه‌های مختلفی بیان شد تا جایی‌که در آخرین صحبت‌های ایلان ماسک و بسیاری دیگر ازجمله جفری هینتون معروف‌به پدرخوانده‌ی هوش مصنوعی، AI فناوری‌ تهدیدآمیزی برای بشر تلقی گردید.

به دنبال تمام هراس‌ها و اضطراب‌ها، بالاخره بریتانیا برای قانون‌مند کردن توسعه‌ی هوش‌ مصنوعی قدم برداشت. نخست‌وزیر بریتانیا، ریشی سوناک، اولین اجلاس ایمنی هوش مصنوعی را با حضور ۲۸ کشور دنیا برگزار کرد. اجلاس جهانی ایمنی هوش مصنوعی، طی دو جلسه در روزهای اول و دوم نوامبر ۲۰۲۳ (دهم و یازدهم آبان) حدود ۱۵۰ نماینده از سراسر جهان از جمله رهبران دولت و وزیران، رهبران صنعت، دانشگاه و جامعه‌ی مدنی و بزرگان این حوزه را گرد هم آورد تا درباره‌ی آیند‌ه‌ی هوش مصنوعی صحبت کنند.

ریشی سوناک در سخنرانی ۲۶ اکتبر ۲۰۲۳
ریشی سوناک، نخست‌وزیر بریتانیا در اولین اجلاس ایمنی هوش مصنوعی

سوناک در سخنرانی ۲۶ اکتبر، چارچوب بحث اجلاس سران را مطرح کرده بود. طی این سخنرانی، او از مزیت‌ها و خطرات احتمالی هوش مصنوعی صحبت کرد و به مردمش اطمینان خاطر داد که از آن‌ها محافظت خواهد کرد. تأسیس اولین مؤسسه ایمنی هوش مصنوعی جهان در بریتانیا یکی از برنامه‌های سوناک بود. به‌گفته‌ی او، این مؤسسه باعث ارتقای دانش جهان در مورد ایمنی هوش مصنوعی خواهد شد و انواع جدید هوش مصنوعی را به‌دقت بررسی، ارزیابی و آزمایش خواهد کرد.

دعوت بریتانیا از چین برای حضور در این اجلاس کار آسانی نبود، اما درست بود

برنامه بعدی سوناک، میزبانی اولین اجلاس جهانی ایمنی هوش مصنوعی با دعوت از برجسته‌ترین نمایندگان جهان، شرکت‌های پیشرو هوش مصنوعی و کشورهای پیشرفته در استفاده از آن بود. درکمال تعجب و حتی مخالفت بسیاری از سران، چین نیز به این اجلاس دعوت شد؛ زیرا سوناک و تیمش عقیده دارند به‌منظور دستیابی به یک استراتژی جدی برای هوش مصنوعی، باید تمام قدرت‌های پیشرو هوش مصنوعی جهان با هم همکاری داشته باشند.

پارک بلچلی، محل برگزاری اجلاس ایمنی هوش مصنوعی

یکی از حرکات نمادین بریتانیا، برگزاری اجلاس در پارک بلچلی بود. بلچلی نقطه‌ای است که سال‌ها پیش آلن تورینگ، پدر علوم کامپیوتر و هوش مصنوعی، در آنجا موفق به شکستن رمز انیگما شد. اولین گام‌ها به سمت هوش مصنوعی در این نقطه برداشته شد و حالا تصمیمات مهم درباره‌ی روش‌های ایمن کردن هوش مصنوعی در همین‌جا گرفته شد.

علت برگزاری اجلاس ایمنی هوش مصنوعی چه بود

در پی دسترسی بیشتر به تراشه‌های بهتر و قدرت محاسباتی بالاتر، هوش مصنوعی با سرعت بی‌سابقه‌ای در حال توسعه است. به گفته سوناک، جهان در نقطه‌ی عطف انقلاب تکنولوژیکی نسلی قرار دارد و اگر خواهان بهره‌بری از مزایای هوش مصنوعی هستیم، باید خطرات آن را برطرف کنیم.

هدف اصلی اجلاس، شروع گفت‌وگوی جهانی درباره مدل‌های «هوش مصنوعی پیشتاز» بود

هدف اصلی اجلاس، شروع گفت‌وگوی جهانی درباره‌ی مدل‌های «هوش مصنوعی پیشتاز» (Frontier AI) بود. این اصطلاح به مدل‌های هوش مصنوعی همه‌منظوره‌ی بسیار توانمند اشاره دارد که می‌توانند طیف گسترده‌ای از وظایف را انجام دهند و با قابلیت‌های موجود در پیشرفته‌ترین مدل‌های امروزی مطابقت کنند یا حتی از آن فراتر روند. قابلیت‌های سیستم‌های هوش مصنوعی قدرتمند فرصت‌ها و البته خطرات بی‌سابقه‌ای را به‌همراه خواهد داشت.

جلسه ۱ نوامبر امکان گفت‌وگوی آزادی را فراهم کرد که در آن انواع خطرات ناشی از هوش مصنوعی پیشتاز و نقش بازیگران مختلف در پاسخ به آن‌ها و همچنین فرصت‌های قابل توجه هوش مصنوعی در حوزه‌های مختلف مورد توجه قرار گرفت. در ۲ نوامبر، بحث‌ها بیشتر بر روی تأثیرات هوش مصنوعی، گزینه‌هایی برای همکاری مؤثر و چگونگی پیشبرد مأموریت ایمنی جهانی هوش مصنوعی متمرکز شد.

«از تاریخ یاد گرفته‌ایم وقتی با هم هستیم، دنیا جای امن‌تری است»

در ابتدای نشست، ویدیویی درمورد پیشرفت هوش مصنوعی پخش شد، سپس جمله‌ای روی پرده نقش بست: «از تاریخ یاد گرفته‌ایم وقتی با هم هستیم، دنیا جای امن‌تری است». سپس جمله محو شد و کلمه‌ی «با هم» روی پرده ماند.

میشل دونلان، اجلاس امنیت هوش مصنوعی ۲۰۲۳
میشل دونلان، وزیر امورخارجه‌ی علم و نوآوری و فناوری بریتانیا

میشل دونلان، وزیر امور خارجه‌ی علم و نوآوری و فناوری بریتانیا، روی صحنه رفت تا سخنرانی خود را شروع کند. به گفته‌ی او، ازآنجاکه مسئله‌ی امنیت هوش مصنوعی، مسئله‌ای جهانی است، برای حل آن نیز باید در سطح جهانی هماهنگ بود. اما هر کشوری به مقررات خاص خود نیاز دارد، زیرا ارزش‌های موردتأکید هر کشور متفاوت است؛ بااین‌حال همه می‌توانند بر روی برخی از اصول اساسی ایمنی به توافق برسند.

برای حل مسائل امنیتی هوش مصنوعی، هر کشوری به مقررات خاص خود نیاز دارد

سخنرانی دونلان با طرح سوال‌ها و پیشنهاد راه‌حل پایان یافت. نسل آینده چگونه ما را قضاوت خواهد کرد؟ ما باید مراقب نسل آینده باشیم و اطمینان حاصل کنیم که آن‌ها به جنبه‌ی مثبت فناوری جدید دسترسی خواهند داشت.

نگرانی‌های مورد بحث در نشست بلچلی

سران نشست بر روی یک موضوع توافق داشتند؛ این‌که هوش مصنوعی پیشتاز باید برای اهداف عالی و به سمت خیر هدایت شود. دراین‌بین، تصمیم‌گیری مسئولان باید به‌گونه‌ای باشد که جنبه‌های مثبت هوش مصنوعی قربانی جنبه‌های منفی احتمالی نشود.

تولید و انتشار اطلاعات نادرست و سوگیری‌های هوش مصنوعی یکی از اولیه‌ترین نگرانی‌های افراد حاضر در نشست بود. توانایی چت‌بات‌ها در تولید متن، صدا، تصاویر و ویدیوهایی که شباهت زیادی به واقعیت دارند، از نگرانی‌های غیرقابل انکار دولت‌ها از آینده‌ی فناوری است. بسیاری معتقدند که اطلاعات نادرست تولیدشده توسط هوش مصنوعی می‌تواند بر انتخابات پیش‌روی ایالات متحده و هند و انتخابات اندونزی، مکزیک و بریتانیا در سال آینده تأثیر بگذارد.

اما به‌غیر از این موضوع، خطر بزرگ‌تری نیز وجود دارد. اگر سلاحی تا این اندازه قدرتمند به دست افراد ناشایست بیفتد، ممکن است مسیر هوش مصنوعی به سمت شر عوض شود. سوءاستفاده از هوش‌ مصنوعی پیشتاز برای جنگ، حملات سایبری گسترده، سلاح‌های زیستی فرموله‌شده، کلاهبرداری‌های عظیم و مواردی از این دست از اتفاقات نابخشودنی و هولناکی هستند که از الان باید به فکر جلوگیری از آن‌ها بود.

این احتمال نیز که هوش مصنوعی ممکن است به دلیل اختلال در عملکرد یا دستیابی به ابرهوش که از ادراک انسانی فراتر است، به انسان آسیب برساند، در نشست مطرح شد. در روز دوم نشست، ایلان ماسک در مورد چنین احتمالی با سوناک گفت‌وگو کرد. از آن‌جا که پیشرفت تکنولوژی بسیار سرعت یافته است، خودمختارشدن هوش مصنوعی دور از ذهن نیست و باید زودتر چاره‌ای برای خطرات احتمالی اندیشید.

ایلان ماسک درگفت‌وگو با ریشی سوناک، فناوری نوپای هوش مصنوعی را به «غول چراغ جادو» تشبیه کرد: «داستان هوش مصنوعی شبیه به داستان‌ غول چراغ جادو است. وقتی یک غول جادویی وجود دارد که می‌تواند همه‌ی آرزوها را برآورده کند، معمولاً داستان به جای خوبی ختم نمی‌شود. مراقب باش چه چیزی آرزو می‌کنی.»

وقتی هم از ماسک در مورد تأثیر هوش مصنوعی بر بازار کار پرسیده شد، آن را «مخرب‌ترین نیروی تاریخ» خواند و گفت که این فناوری هوشمندتر از باهوش‌ترین انسان‌ها خواهد بود: «زمانی فرامی‌رسد که به هیچ شغلی نیاز نیست. اگر می‌خواهید شغلی برای رضایت شخصی داشته باشید، می‌توانید کار کنید، اما هوش مصنوعی قادر به انجام همه‌ی کارها خواهد بود.»

چه می‌شود اگر هوش مصنوعی به‌روزرسانی جدیدی دریافت کند و دیگر رفتار دوستانه نداشته باشد

موضوع مورد بحث دیگر این بود که آیا مدل‌های پیشرفته‌ی هوش مصنوعی مجاز به متن‌باز بودن هستند یا خیر. برخی از شرکت‌ها مانند متا و استارتاپ‌هایی چون Hugging Face و Mistral و Stability AI در حال ساخت سیستم‌های هوش مصنوعی متن‌باز هستند؛ یعنی جزئیات فنی مدل‌های آن‌ها به‌صورت عمومی منتشر می‌شود تا همه بتوانند از آن استفاده کنند. کار آن‌ها در تضاد با رویکرد رقبایی مانند OpenAI و گوگل است که به اصطلاح جعبه سیاهی ایجاد می‌کنند که در آن داده‌ها و کدهای مورد استفاده برای ساخت مدل‌های هوش مصنوعی دردسترس اشخاص ثالث قرار نمی‌گیرد.

مدافعان مدل‌های متن‌بسته می‌گویند که این مدل‌ها بهتر می‌توانند مقررات سختگیرانه را رعایت کنند و اشخاص و منابعی را که به آن‌ها دسترسی دارند، کنترل کنند تا به دست افراد نادرست نیفتند. اما برخی دیگر استدلال می‌کنند که مدل‌های متن‌باز به گروه‌های دانشگاهی و کشورهایی که منابع کمتری دارند کمک می‌کند تا سیستم‌های هوش مصنوعی خود را توسعه دهند.

برخی از کارشناسان هشدار داده‌اند که مدل‌های متن‌باز ممکن است توسط تروریست‌ها برای تولید سلاح‌های شیمیایی یا حتی ایجاد یک ابرهوش خارج از کنترل انسان استفاده شوند.

تصمیم‌گیری در این مورد سخت است، زیرا مدل‌های متن‌باز گرچه ممکن است خطرات خاصی را برای ایمنی ایجاد کنند، اما همچنین قادرند نوآوری و شفافیت را با توجه به تکنیک‌های ایمنی ارتقا دهند.

در نشست بلچلی چه گذشت؟

نشست بلچلی نقطه‌ای برای شروع مباحث حول امینت هوش مصنوعی در بالاترین سطح ممکن است. هر هیئتی در نشست، ادعای برتری در اعمال مقررات هوش مصنوعی را داشت؛ از دیپلمات‌های اروپایی که چهار سال پیش فرایند نظارتی را آغاز کرده‌اند گرفته تا آمریکایی‌هایی که درباره‌ی قدرت مؤسسه ایمنی جدید هوش مصنوعی خود صحبت می‌کردند.

جو بایدن و کامالا هریس در حال امضا فرمان اجرایی هوش مصنوعی
امضای فرمان اجرایی هوش مصنوعی جو بایدن

درواقع پیش از برگزاری اجلاس، کاخ سفید قدرت خود را برای تنظیم دستور کار هوش مصنوعی آشکار کرد. بر اساس فرمان اجرایی صادرشده جو بایدن، رئیس‌جمهور آمریکا، شرکت‌های فناوری موظف شدند نتایج آزمایش سیستم‌های هوش مصنوعی قدرتمند را قبل از انتشار عمومی به دولت ارائه دهند و نحوه تضمین ایمنی ابزارهای خود را به اشتراک بگذارند.

این فرمان اجرایی که بر آسیب‌های جاری مانند حریم خصوصی، امنیت، تبعیض و اطلاعات نادرست تمرکز دارد، بیش از ۲۵ سازمان دولتی را در بر می‌گیرد. این جامع‌ترین تلاش تا به امروز برای تنظیم مقررات بزرگ‌ترین شرکت‌های هوش مصنوعی در جهان است.

کامالا هریس، معاون بایدن، در روز اول اجلاس در لندن درباره‌ی هوش مصنوعی سخنرانی کرد و از تأسیس مؤسسه‌ی ایمنی هوش مصنوعی خبر داد که مشابه با چیزی بود که سوناک در سخنرانی ۲۶ اکتبر گفته بود. او بر اقداماتی که دولت بایدن برای پاسخگویی شرکت‌های فناوری انجام داده است، تأکید کرد. هریس در روز دوم اجلاس گفت که اقدام جسورانه‌ی ایالات متحده باید برای سایر کشورها الهام‌بخش و آموزنده باشد.

فرمان اجرایی جو بایدن بر آسیب‌های جاری هوش مصنوعی مانند حریم خصوصی، امنیت، تبعیض و اطلاعات نادرست تمرکز دارد

در بین کشورهای جهان، آمریکا بیشترین تسلط را بر تحقیق و توسعه‌ی هوش مصنوعی دارد. براساس گزارش وضعیت هوش مصنوعی در سال ۲۰۲۳، ایالات متحده در سه سال گذشته بیش از ۷۰ درصد از مقالات تحقیقاتی هوش مصنوعی را تولید کرده است. در این گزارش، چین و بریتانیا در رتبه‌ی دوم و سوم قرار دارند.

کامالا هریس، اجلاس ایمنی هوش مصنوعی ۲۰۲۳
کامالا هریس در اجلاس ایمنی هوش مصنوعی در لندن

شرکت‌ها و دانشگاه‌های مستقر در ایالات متحده به رهبری گوگل، متا و مایکروسافت، ۹ مؤسسه از ۱۰ مؤسسه تحقیقاتی برتر را تشکیل می‌دهند. تنها استثنا DeepMind لندن است که گوگل آن را در سال ۲۰۱۴ خریداری کرد. در سال ۲۰۲۲، این سه شرکت تقریباً ۶۰۰ میلیارد دلار درآمد ایجاد کردند. ارزش بازار آن‌ها در مجموع ۵ تریلیون دلار است که بیش از دو برابر ارزش ۱۰۰ شرکت برتر فهرست‌شده در فهرست بریتانیا (۲٫۴ تریلیون دلار) است.

شرکت‌های مذکور در حال حاضر فقط به کدهای اخلاقی خودشان پایبندند و با محدودیت‌های کمی برای چگونگی توسعه‌ی هوش مصنوعی مواجه هستند. اما ریشی سوناک، نخست وزیر بریتانیا، گفت که مؤسسات ایمنی بین‌المللی مدل‌های پیشتاز را آزمایش خواهند کرد و ایالات متحده تأیید کرد که با ایجاد مؤسسه ایمنی خود از نمونه‌ی بریتانیا الگوبرداری می‌کند.

هریس که رهبری تدوین سیاست هوش مصنوعی دولت آمریکا را بر عهده داشته است، در سخنرانی در سفارت ایالات متحده در لندن، توضیح داد که واشنگتن بازرسی‌‌های سرزده‌ی بیشتری از شرکت‌های بزرگ تدارک خواهد دید. او گفت که تاریخ نشان داده است در غیاب مقررات و نظارت قوی دولت، برخی از شرکت‌های فناوری سود را بر رفاه مشتریان خود، ایمنی جوامعشان و ثبات دموکراسی‌های دولت ترجیح می‌دهند.

از ۱۰ مؤسسه برتر تحقیقات هوش مصنوعی، ۹ مؤسسه در آمریکا قرار دارند

با وجود تنش‌های ژئوپلیتیکی معاون وزیر علوم و فناوری چین، وو ژائوهوی، در این مراسم سخنرانی کرد. ایالات متحده به دلیل نگرانی های امنیت ملی در تلاش است تا پیشرفت هوش مصنوعی چین را محدود کند. محدود کردن فروش تراشه‌های هوش مصنوعی پیشرفته به چین از جمله اقدامات دیگر آمریکا علیه چین است.

نماینده چین، اجلاس امنیت هوش مصنوعی ۲۰۲۳
وو ژائوهوی

بریتانیا چین را به این اجلاس دعوت کرد، زیرا چین در زمینه‌ی هوش مصنوعی پیشرو است و کنار گذاشتن این کشور عقلانی نیست. وو در سخنرانی‌ خود گفت چین مایل است گفت‌وگو و ارتباطات را در زمینه‌ی ایمنی هوش مصنوعی با همه طرف‌ها تقویت کند. او اعلام کرد که با سایر سران در مورد ارزش‌های مشترک «دموکراسی» و «آزادی» و مبارزه با استفاده‌های مخرب هوش مصنوعی اتفاق نظر دارد.

به گفته‌ی نماینده‌ای حاضر در نشست، یکی از دلایلی که چین را در ایجاد موضع مشترک در مورد حکمرانی جهانی هوش مصنوعی بسیار انعطاف‌پذیر کرده‌، این است که «خوب بازی کردن» و «مسئولیت‌پذیری» ممکن است در آینده به تقویت گفت‌وگوها در مورد کاهش موانع تجاری تحمیل‌شده توسط ایالات متحده به چین، کمک کند.

دستاوردهای نشست ایمنی هوش مصنوعی

بریتانیا با مؤسسه ایمنی هوش مصنوعی ایالات متحده و با سنگاپور برای همکاری در آزمایش ایمنی هوش مصنوعی موافقت کرد. شرکت‌های پیشرو هوش مصنوعی موافقت کردند که به این دولت‌ها اجازه دهند تا آخرین مدل‌هایشان را قبل از عرضه به کسب‌وکارها و مصرف‌کنندگان، از نظر امنیت ملی و خطرات دیگر آزمایش کنند.

درنهایت شرکت‌هایی از جمله OpenAI، گوگل دیپ‌مایند، Anthropic، متا، مایکروسافت و آمازون نشست دو روزه را با امضای رهنمود کلی که البته قانون لازم‌الاجرا نیست، خاتمه دادند. دولت‌هایی شامل استرالیا، کانادا، اتحادیه اروپا، فرانسه، آلمان، ایتالیا، ژاپن و کره جنوبی نیز سند موسوم به «اعلامیه بلچلی» را امضا کردند؛ چین هم در بین امضاکنندگان بود.

همچنین هیئتی بین‌المللی متشکل از کارشناسان تشکیل شد تا گزارش سالانه‌ای را درباره خطرات هوش مصنوعی، از جمله سوگیری، اطلاعات غلط و خطرات شدیدتری که بشریت را مورد تهدید قرار می‌دهند، مانند کمک به توسعه سلاح‌های شیمیایی، ارائه دهند. یوشوا بنجیو، از پدران هوش مصنوعی و استاد علوم کامپیوتر در دانشگاه مونترال، رهبری «گزارش خطرات هوش مصنوعی» که بین ۲۰ کشور مورد توافق قرار گرفته است را به عهده خواهد داشت.

۲۸ مقام ارشد کشورهای مختلف در اجلاس ایمنی هوش مصنوعی

تعهدات گسترده‌ی ۲۸ کشور برای همکاری با یکدیگر برای مقابله با خطرات ناشی از هوش مصنوعی پیشرفته و همچنین جذب چهره‌های برجسته فناوری مثل ایلان ماسک و سم آلتمن، مدیرعامل OpenAI باعث شد بسیاری اجلاس هوش مصنوعی سوناک را موفقیت‌آمیز تلقی کنند. البته یکی دیگر از دستاوردهای دیپلماتیک سوناک، قرار دادن آمریکا و چین در یک جبهه علیه خطرات هوش مصنوعی است.

قرار گرفتن آمریکا و چین در یک جبهه علیه خطرات هوش مصنوعی

فرانسه و کره میزبان نشست‌‌های بعدی ایمنی هوش مصنوعی سال آینده هستند. درحالی‌که رویداد بلچلی بر روی همسویی حول آنچه باید انجام شود، متمرکز شده بود، رویداد بعدی بر روی اقداماتی مانند مقررات مشخص و پیشنهادات تحقیقاتی برای چگونگی ارزیابی مدل‌های هوش مصنوعی، تمرکز خواهد داشت.

از نظر برخی از مقامات صنعت فناوری، تمرکز این اجلاس بسیار محدود بوده است. آن‌ها می‌گویند که با محدود نگه داشتن اجلاس به مدل‌های هوش مصنوعی پیشتاز، فرصت تشویق مشارکت اعضای جامعه فناوریِ فراتر از هوش مصنوعی پیشتاز از بین می‌رود.

ساچین دوگال، مدیرعامل استارتاپ هوش مصنوعی Builder.ai می‌گوید: «با تمرکز بر شرکت‌هایی که در حال حاضر مشغول ساخت مدل‌های پیشتاز و توسعه آن‌ها هستند، انگار می‌گوییم که هیچ‌کس دیگری نمی‌تواند نسل بعدی مدل‌های پیشتاز را بسازد.»

برخی از تمرکز اجلاس بر «تهدیدهای وجودی» پیرامون هوش مصنوعی ناامید شده‌اند و فکر می‌کنند که دولت‌ها باید به خطرات فوری‌تر مانند پتانسیل فناوری دیپ‌ فیک برای دستکاری در انتخابات رسیدگی کنند.

واکنش‌های متفاوت به نشست ایمنی هوش مصنوعی

در نهایت، میزبان مراسم ایمنی AI از نتیجه‌ی اجلاس خوشحال و به آینده امیدوار بود. او بر این باور است که دستاوردهای اجلاس برگزارشده توازن را به نفع بشریت تغییر خواهد داد.

اما مهم است به یاد داشته باشیم که پایبندی‌ به اعلامیه‌ی بلچلی الزام‌آور نیست و امضای کشورهای شرکت‌کننده در این مرحله بیشتر حالتی نمادین دارد. کشورها می‌توانند در سایه‌ی امضای اعلامیه برای جلوگیری از خطرات، به اهدافی که فقط خودشان از آن خبر دارند، برسند و وانمود کنند که کماکان پیرو اهداف نشست بلچلی هستند.

ازطرفی دیگر، توسعه‌ی هوش مصنوعی در مسیر خیر و برای اهداف تعالی، چیزی است که ما آرزو داریم دولت‌ها به آن پایبند باشند. دولت‌ها می‌توانند در پشت‌ صحنه‌ی تست مدل‌های هوش مصنوعی پیشتاز، خطرات آن‌ها را به‌نفع خودشان مخفی کنند؛ مثلاً از هوش مصنوعی برای قدرت‌طلبی و جنگ‌افروزی استفاده کنند.

ورای درهای بسته‌ی ساختمانی که اولین اجلاس ایمنی هوش مصنوعی در آن برگزار می‌شد، مردمی نشسته بودند که با دلهره به آنچه پیش خواهد آمد، فکر می‌کردند. آن‌ها به خبرنگاران گفتند که دولت‌ها چندان به فکر مردم نیستند و نتیجه‌ی این اجلاس درنهایت تأثیری در بهبود زندگی آن‌ها نخواهد داشت.

اگر دغدغه‌ی این نشست خطراتی است که دولت‌ها نگران مواجهه‌ی بشریت با آن هستند، آیا می‌توان گفت اکنون بشریت در بهترین حالت خود قرار دارد؟ وقتی ایلان ماسک داشت از خطرات هوش مصنوعی می‌گفت، در همان حال داشت برای عرضه‌ی هوش مصنوعی خودش «گراک» برنامه‌ریزی می‌کرد. اگر او و افرادی چون او نگران از دست رفتن «معنی زندگی» در پی برآورده شدن تمام خواسته‌های بشر توسط هوش مصنوعی هستند، آیا یعنی آن‌ها معنای زندگی را یافته‌اند؟

سوال‌هایی که شاید زمان پاسخ‌گویشان باشد.

تبلیغات
داغ‌ترین مطالب روز

نظرات

تبلیغات