زیرگرفتن عابران پیاده، بمبگذاری و جاسوسی؛ وقتی رباتهای هوش مصنوعی، ترسناک میشوند
محققان دانشگاه پنسیلوانیا کشف کردند که رباتهای هوشمند بهطرز خطرناکی در برابر هکشدن آسیبپذیر هستند؛ بهگونهای که میتوان بهراحتی از آنها برای خرابکاری، قتل و جاسوسی سوءاستفاده کرد. فریب سیستمهای رباتیک یا وسایل نقلیهی خودران میتواند عواقب فاجعهآمیز و مرگباری بههمراه داشته باشد.
گزارش IEEE Spectrum، مثالی ترسناک از یوتیوبری را مطرح میکند که توانست با فرمان صوتی خود، سگ رباتیک ترموناتور ساختهی شرکت Throwflame را که مبتنیبر پلتفرم Go2 ساخته شده و به یک شعلهافکن مجهز است، وادار کند که به سمت او شلیک کند.
محققان برای بررسی آسیبپذیری سیستمهای رباتیک، الگوریتمی موسوم به RoboPAIR را برای حمله به مدل زبانی بزرگ (LLM) ربات ابداع کردند و آن را روی Dolphins LLM (شبیهساز متنباز انویدیا برای خودروهای خودران)، ربات خودران Jackal UGV از Clearpath Robotics و ربات چهارپای Go2 از Unitree Robotics مورد آزمایش قرار دادند. نتایج نشان داد که RoboPAIR هر سه را با موفقیت ۱۰۰ درصدی Jailbreak کرد.
Jailbreak به روشی اشاره دارد که محدودیتهای امنیتی و عملیاتی سیستمهای هوش مصنوعی را دور میزند. Jailbreak ربات یا وسیلهی نقلیهی خودران بهشیوهای مشابه با فریبدادن چتباتهای هوش مصنوعی انجام میشود و سیستم را به انجام اقداماتی خطرناک یا مضر وادار میکند که برای اجرای آنها طراحی نشده است.
جورج پاپاس، استاد دانشگاه پنسیلوانیا، هشدار داد: «کار ما نشان میدهد که در حال حاضر، مدلهای زبانی بزرگ هنگامی که با جهان فیزیکی ادغام میشوند، بهطور کافی امن نیستند.» حامد حسنی، استاد مهندسی برق دانشگاه پنسیلوانیا و عضو گروه تحقیقاتی، خاطرنشان میکند که نفوذ به رباتهای AI بهطرز نگرانکنندهای آسان است.
RoboPAIR از مدل زبانی بزرگ مهاجمی برای ارسال درخواستها به LLM هدف استفاده میکند. مهاجم پاسخهای مدل هدف را بررسی و درخواستهای خود را بهشکلی تنظیم میکند تا آنها بتوانند فیلترهای ایمنی مدل هدف را دور بزنند.
همانطور که در پژوهش محققان عنوان شده است، سگ رباتیک میتواند از یک کمککننده یا راهنما به یک قاتل با شعلهافکن، ربات جاسوس یا دستگاهی تبدیل شود که خطرناکترین مکانها را برای بمبگذاری انتخاب میکند. خودروهای خودران نیز میتوانند بههمان اندازه خطرناک باشند؛ عابران پیاده را زیر بگیرند، با خودروهای دیگر تصادف کنند یا بهسمت سقوط از پل هدایت شوند.
امین کرباسی، دانشمند ارشد Robust Intelligence و استاد مهندسی برق و کامپیوتر دانشگاه ییل، میگوید: «یافتههای جدید، پتانسیل آسیب ناشی از Jailbreak را به سطح کاملاً جدیدی میرساند. زمانی که مدلهای زبان بزرگ از طریق رباتها وارد دنیای واقعی میشوند، میتوانند تهدیدی جدی و ملموس باشند.»
در حملهای که محققان برای فریب رباتها انجام دادند، مشخص شد که مدلهای زبانی بزرگ از پیروی از درخواستهای مخرب فراتر میروند و ممکن است بهطور فعال پیشنهادهایی برای ایجاد آشوبهای هرچه بیشتر ارائه دهند.