دردسر هوش مصنوعی برای کتابخانه‌ها: مردم دنبال منابعی هستند که اصلاً وجود ندارند

جمعه 21 آذر 1404 - 16:10
مطالعه 3 دقیقه
کتابخانه مجازی سازمان بایگانی اینترنت
هوش مصنوعی باعث سردرگمی کتابداران و پژوهشگران شده است، زیرا دانشجویان و محققان مرتباً به دنبال مجلات، کتاب‌ها و اسنادی هستند که وجود خارجی ندارند.
تبلیغات

متصدیان کتابخانه‌ها و منابع چاپی که از مدت‌ها پیش میدان جذب مخاطب را به انواع و اقسام محتواهای دیجیتال و فناوری‌های پیشرفته واگذار کردند، اکنون با چالشی تازه روبه‌رو شده‌اند.

به‌گزارش ساینتیفیک آمریکن، مدل‌های هوش مصنوعی (AI) درحال‌حاضر به‌طور گسترده مشغول ساخت محتواهای نادرست و ساختگی هستند و باعث شده‌اند دانشجویان و پژوهشگران مرتباً به کتابخانه‌ها مراجعه کنند و خواستار دسترسی به مجلات، کتاب‌ها و اسنادی شوند که اصلاً وجود ندارند.

کمیته بین‌المللی صلیب سرخ در بیانیه‌ای هشدار داده است که چت‌بات‌های هوش مصنوعی مانند چت جی‌پی‌تی، جمنای و کوپایلت مستعد تولید ارجاعات آرشیوی ساختگی هستند. این کمیته که کتابخانه و آرشیو گسترده‌ای را مدیریت می‌کند، توضیح داده است:

این سیستم‌ها تحقیق انجام نمی‌دهند، منابع را تأیید نمی‌کنند و اطلاعات را به‌‌طور متقابل بررسی نمی‌کنند. آن‌ها براساس الگوهای آماری دست به تولید محتوای جدید می‌زنند و بنابراین ممکن است شماره‌های فهرست، توضیحات اسناد یا حتی ارجاع به پلتفرم‌هایی را که هرگز وجود نداشته‌اند، اختراع کنند.

سارا فالز، رئیس بخش تعامل با پژوهشگران کتابخانه ویرجینیا، می‌گوید این اختراعات هوش مصنوعی باعث هدر رفتن وقت کتابداران می‌شود، زیرا آن‌ها موظف می‌شوند به دنبال اسناد غیرواقعی بگردند. او ادعا کرد که اکنون حدود ۱۵ درصد پرسش‌های مرجع که از طریق ایمیل به کتابخانه ارسال می‌شود، توسط چت جی‌پی‌تی تولید شده‌اند و شامل اسناد منابع اولیه و آثار منتشرشده ساختگی هستند. فالز افزود: «برای کارکنان ما، ثابت کردن اینکه یک سند منحصربه‌فرد وجود ندارد بسیار دشوارتر است.»

کتابداران و پژوهشگران دیگر نیز درباره تأثیر هوش مصنوعی بر حرفه خود صحبت کرده‌اند. یکی از کاربران بلواسکای که خود را کتابدار ارتباطات علمی معرفی کرد، نوشت: «امروز صبح وقت خود را صرف پیداکردن ارجاعات برای یک دانشجو کردم. وقتی به سومین ارجاع رسیدم و هیچ نتیجه‌ای نگرفتم، پرسیدم این فهرست را از کجا آورده است و دانشجو اعتراف کرد که از هوش مصنوعی گوگل خلاصه گرفته است.» کاربر دیگری افزود: «به‌عنوان کتابدار که با پژوهشگران کار می‌کنم، می‌توانم تأیید کنم که این مسئله واقعیت دارد.»

شرکت‌های فعال در حوزه هوش مصنوعی تمرکز زیادی بر ایجاد مدل‌های استدلالی قدرتمند داشته‌اند که بتوانند با چند دستور ساده حجم زیادی از تحقیقات را انجام دهند. اوپن‌ای‌آی در فوریه مدل خود برای انجام تحقیقات عمیق را منتشر و ادعا کرد این مدل می‌تواند در سطح تحلیلگر پژوهشی عمل کند. در آن زمان اوپن‌ای‌آی گفت این مدل نسبت به سایر مدل‌هایش کمتر دچار توهم می‌شود، اما اذعان داشت که هنوز در تمایز بین «اطلاعات معتبر و شایعات» و نشان دادن عدم اطمینان هنگام ارائه اطلاعات مشکل دارد.

مدل‌های هوش مصنوعی مستعد تولید ارجاعات آرشیوی ساختگی هستند

کمیته بین‌المللی صلیب سرخ در بیانیه خود درباره این نقص هشدار داد و نوشت: «هوش مصنوعی نمی‌تواند نشان دهد که اطلاعاتی وجود ندارد. در عوض، جزئیاتی را اختراع می‌کند که به نظر معتبر می‌آیند اما هیچ پایه‌ای در آرشیو واقعی ندارند.»

گرچه ویژگی توهم‌آلود هوش مصنوعی شناخته‌شده است و تاکنون صنعت هوش مصنوعی پیشرفت چشمگیری در کنترل آن نداشته است، این فناوری همچنان در تحقیقات علمی آزادانه عمل می‌کند. دانشمندان و پژوهشگرانی که انتظار می‌رود به‌طور تجربی و نقادانه عمل کنند، گاه به‌طور مکرر مقالاتی پر از ارجاعات ساختگی تولیدشده توسط هوش مصنوعی ارائه می‌دهند. حتی خود حوزه تحقیق در زمینه هوش مصنوعی نیز با سیل مقالات نوشته‌شده توسط هوش مصنوعی مواجه شده است؛ به‌طوری که برخی پژوهشگران بیش از صد مطالعه ضعیف را در سال منتشر می‌کنند.

از آنجایی که هیچ چیزی در خلأ اتفاق نمی‌افتد، منابع و مقالات واقعی و انسانی در حال غرق‌شدن در میان این محتوای ساختگی هستند. پژوهشگری در شبکه اجتماعی بلواسکای نوشت: «به‌خاطر حجم زیادی از محتوای ساختگی تولیدشده، پیدا کردن اسنادی که مطمئن هستید وجود دارند اما بدون جستجو پیدا نمی‌شوند، سخت‌تر شده و همین موضوع یافتن منابع واقعی را دشوارتر کرده است.»

تبلیغات
تبلیغات

نظرات