دردسر هوش مصنوعی برای کتابخانهها: مردم دنبال منابعی هستند که اصلاً وجود ندارند
متصدیان کتابخانهها و منابع چاپی که از مدتها پیش میدان جذب مخاطب را به انواع و اقسام محتواهای دیجیتال و فناوریهای پیشرفته واگذار کردند، اکنون با چالشی تازه روبهرو شدهاند.
بهگزارش ساینتیفیک آمریکن، مدلهای هوش مصنوعی (AI) درحالحاضر بهطور گسترده مشغول ساخت محتواهای نادرست و ساختگی هستند و باعث شدهاند دانشجویان و پژوهشگران مرتباً به کتابخانهها مراجعه کنند و خواستار دسترسی به مجلات، کتابها و اسنادی شوند که اصلاً وجود ندارند.
کمیته بینالمللی صلیب سرخ در بیانیهای هشدار داده است که چتباتهای هوش مصنوعی مانند چت جیپیتی، جمنای و کوپایلت مستعد تولید ارجاعات آرشیوی ساختگی هستند. این کمیته که کتابخانه و آرشیو گستردهای را مدیریت میکند، توضیح داده است:
این سیستمها تحقیق انجام نمیدهند، منابع را تأیید نمیکنند و اطلاعات را بهطور متقابل بررسی نمیکنند. آنها براساس الگوهای آماری دست به تولید محتوای جدید میزنند و بنابراین ممکن است شمارههای فهرست، توضیحات اسناد یا حتی ارجاع به پلتفرمهایی را که هرگز وجود نداشتهاند، اختراع کنند.
سارا فالز، رئیس بخش تعامل با پژوهشگران کتابخانه ویرجینیا، میگوید این اختراعات هوش مصنوعی باعث هدر رفتن وقت کتابداران میشود، زیرا آنها موظف میشوند به دنبال اسناد غیرواقعی بگردند. او ادعا کرد که اکنون حدود ۱۵ درصد پرسشهای مرجع که از طریق ایمیل به کتابخانه ارسال میشود، توسط چت جیپیتی تولید شدهاند و شامل اسناد منابع اولیه و آثار منتشرشده ساختگی هستند. فالز افزود: «برای کارکنان ما، ثابت کردن اینکه یک سند منحصربهفرد وجود ندارد بسیار دشوارتر است.»
کتابداران و پژوهشگران دیگر نیز درباره تأثیر هوش مصنوعی بر حرفه خود صحبت کردهاند. یکی از کاربران بلواسکای که خود را کتابدار ارتباطات علمی معرفی کرد، نوشت: «امروز صبح وقت خود را صرف پیداکردن ارجاعات برای یک دانشجو کردم. وقتی به سومین ارجاع رسیدم و هیچ نتیجهای نگرفتم، پرسیدم این فهرست را از کجا آورده است و دانشجو اعتراف کرد که از هوش مصنوعی گوگل خلاصه گرفته است.» کاربر دیگری افزود: «بهعنوان کتابدار که با پژوهشگران کار میکنم، میتوانم تأیید کنم که این مسئله واقعیت دارد.»
شرکتهای فعال در حوزه هوش مصنوعی تمرکز زیادی بر ایجاد مدلهای استدلالی قدرتمند داشتهاند که بتوانند با چند دستور ساده حجم زیادی از تحقیقات را انجام دهند. اوپنایآی در فوریه مدل خود برای انجام تحقیقات عمیق را منتشر و ادعا کرد این مدل میتواند در سطح تحلیلگر پژوهشی عمل کند. در آن زمان اوپنایآی گفت این مدل نسبت به سایر مدلهایش کمتر دچار توهم میشود، اما اذعان داشت که هنوز در تمایز بین «اطلاعات معتبر و شایعات» و نشان دادن عدم اطمینان هنگام ارائه اطلاعات مشکل دارد.
مدلهای هوش مصنوعی مستعد تولید ارجاعات آرشیوی ساختگی هستند
کمیته بینالمللی صلیب سرخ در بیانیه خود درباره این نقص هشدار داد و نوشت: «هوش مصنوعی نمیتواند نشان دهد که اطلاعاتی وجود ندارد. در عوض، جزئیاتی را اختراع میکند که به نظر معتبر میآیند اما هیچ پایهای در آرشیو واقعی ندارند.»
گرچه ویژگی توهمآلود هوش مصنوعی شناختهشده است و تاکنون صنعت هوش مصنوعی پیشرفت چشمگیری در کنترل آن نداشته است، این فناوری همچنان در تحقیقات علمی آزادانه عمل میکند. دانشمندان و پژوهشگرانی که انتظار میرود بهطور تجربی و نقادانه عمل کنند، گاه بهطور مکرر مقالاتی پر از ارجاعات ساختگی تولیدشده توسط هوش مصنوعی ارائه میدهند. حتی خود حوزه تحقیق در زمینه هوش مصنوعی نیز با سیل مقالات نوشتهشده توسط هوش مصنوعی مواجه شده است؛ بهطوری که برخی پژوهشگران بیش از صد مطالعه ضعیف را در سال منتشر میکنند.
از آنجایی که هیچ چیزی در خلأ اتفاق نمیافتد، منابع و مقالات واقعی و انسانی در حال غرقشدن در میان این محتوای ساختگی هستند. پژوهشگری در شبکه اجتماعی بلواسکای نوشت: «بهخاطر حجم زیادی از محتوای ساختگی تولیدشده، پیدا کردن اسنادی که مطمئن هستید وجود دارند اما بدون جستجو پیدا نمیشوند، سختتر شده و همین موضوع یافتن منابع واقعی را دشوارتر کرده است.»