جنجال‌آفرینی دوباره ChatGPT: این‌بار ذکر نام چت‌بات به‌عنوان نویسنده همکار مقاله‌های علمی

سه‌شنبه ۴ بهمن ۱۴۰۱ - ۲۲:۳۰
مطالعه 6 دقیقه
چت‌بات هوش مصنوعی ChatGPT
چت‌بات هوش مصنوعی ChatGPT هم‌اکنون حداقل در نوشتن چهار مقاله علمی مشارکت داشته؛ موضوعی که از چشم جامعه علمی و ناشران دور نمانده است.

چت‌بات ChatGPT در هفته‌های اخیر سروصدای زیادی به پا کرده و حالا رسما وارد دنیای تحقیقات علمی نیز شده است. طبق گزارش نشریه نیچر، اکنون ابزار هوش مصنوعی ChatGPT دست‌کم چهار مقاله علمی (منتشر شده و در مرحله بازبینی) را به نام خود می‌بیند. در همین حال، ورود ChatGPT به عرصه تحقیقات علمی باعث شده تا ویراستاران، محققان و ناشران نشریات و مجلات علمی در مورد جایگاه چنین ابزار‌های هوش مصنوعی در تحقیقات علمی بحث‌های کاملا جدی را آغاز کنند. در حقیقت، حالا جامعه علمی باید به یک سوال اساسی پاسخ دهند، اینکه آیا ذکر نام چت‌بات هوش مصنوعی به عنوان نویسنده در مقالات علمی شایسته است؟ از سوی دیگر، ناشران به دنبال بازنگری در خط‌ مشی‌ها و سیاست‌های خود در رابطه با چت‌بات هستند.

ابزار هوش مصنوعی ChatGPT اوایل آذر (نوامبر ۲۰۲۲) از سوی شرکت OpenAI عرضه شد. این چت‌بات هم اکنون به صورت رایگان در دسترس کاربران است و تا به حال میلیون‌ها کاربران از خدمات باورنکردنی آن که شامل نوشتن مقاله، مطالب وبلاگ و وب‌سایت و حتی داستان و شعر می‌شود استفاده کرده‌اند.

چت‌بات ChatGPT از سیستم پردازش زبان طبیعی موسوم به مدل زبانی بزرگ (LLM) بهره می‌برد که توانایی خلق جملات کاملا باورپذیری را دارد. این ابزار هوش مصنوعی با تقلید از الگوهای آماری-زبانی موجود در یک پایگاه اطلاعاتی بسیار عظیم که از متون گردآوری‌شده از اینترنت به دست آمده‌اند به این مهم دست پیدا می‌کند.

حال این چت‌بات نگرانی‌های زیادی را در بخش‌های مختلف آکادمیکی و علمی به وجود آورده است. در محافل دانشگاهی اکنون این سوال به وجود آمده که با روی کار آمدن این ابزار هوش مصنوعی چه آینده‌ای در انتظار مقالات دانشگاهی و تحقیقاتی خواهد بود؟

ناشران و مسئولان پایگاه‌های داده‌ی پیش‌انتشار در گفتگو با نیچر گفته‌اند موافق‌اند که ابزارهای هوش مصنوعی مانند ChatGPT فاقد معیارهای لازم برای ذکر شدن به عنوان نویسنده مقالات علمی هستند. در واقع این ابزارهای هوش مصنوعی نمی‌توانند مسئولیت درستی محتوا و امانت‌داری مقالات علمی را برعهده بگیرند. در همین حال برخی از ناشران عنوان کرده‌اند که می‌توان مشارکت هوش مصنوعی در نوشتن مقالات علمی را در نقش دیگری به غیر از نویسنده ذکر کرد. در یک مورد، یکی از سردبیران نشریات علمی عنوان کرده که ذکر نام ChatGPT به عنوان نویسنده مشترک مقاله‌ای علمی یک اشتباه ساده بوده و حالا تصحیح شده است.

نویسندگان هوش مصنوعی

نام ChatGPT در بین ۱۲ نویسنده‌ای دیده می‌شود که مقاله‌ای درباره‌ی استفاده از این چت‌بات برای آموزش پزشکی نوشته‌اند. این مقاله اواخر آذر (دسامبر ۲۰۲۲) در وبگاه medRxiv، پایگاه اینترنتی مقالات پزشکی منتشر شده است.

ریچارد سِوِر، یکی از بنیان‌گذاران و معاون مدیر انتشارات کولد اسپرینگ هاربور در نیویورک می‌گوید که تیم medRxiv و bioRxiv وب‌سایت خواهر آن، حالا مشغول بحث در مورد استفاده از ابزارهای هوش مصنوعی مانند ChatGPT در نوشتن مقالات تحقیقاتی هستند. او همچنین اضافه می‌کند که توافق‌نامه‌ها در این مورد ممکن است تغییر کنند.

سور می‌گوید: «ما باید بین نقش رسمی نویسنده یک متن علمی و مفهوم کلی‌تر مولف به‌عنوان نویسنده یک سند، تمایز قائل شویم.» به باور سور، نویسندگان مسئولیت قانونی اثر را برعهده گرفته، بنابراین فقط انسان‌ها باید در فهرست نویسندگان مقالات قرار بگیرند. البته انسان‌ها ممکن است بخواهند به‌صورت مخفیانه نام هوش مصنوعی را به عنوان نویسنده وارد نشریات آنلاین کنند، موردی که با مقاله‌ی medRxiv اتفاق افتاد. قبلا نیز کسانی بوده‌اند که سعی کرده‌اند نام حیوانات خانگی، شخصیت‌های خیالی و موارد دیگر را به عنوان نویسندگان مقالات علمی در نشریات و مقالات وارد کنند. اما این مسئله بیشتر از اینکه به خط‌ مشی نشریات ارتباطی داشته باشد، نیازمند بررسی ساده اطلاعات مشارکت‌کنندگان مقالات است.

در همین حال در سرمقاله‌ی این ماه نشریه Nurse Education in Practice نام چت‌بات هوش مصنوعی در کنار سیوبهان اوکانر، محقق فناوری سلامت از دانشگاه منچستر، به عنوان نویسنده مشترک ذکر شده بود. با این حال، راجر واتسون، سردبیر این نشریه گفت این موضوع صرفا یک اشتباه بوده و به زودی اصلاح خواهد شد. او مسئولیت این اشتباه را قبول کرده و عنوان کرده که چنین خطایی به دلیل تفاوت سیستم بررسی سرمقاله‌ها نسبت به مقالات تحقیقاتی رخ داده است.

الکس ژاورونکوف، مدیر اجرایی Insilico Medicine، شرکت تحقیقات دارویی مبتنی بر هوش مصنوعی در هنگ کنگ است. این شرکت اخیرا نام ChatGPT را به عنوان یکی از نویسندگان مقاله‌ای که آذر ماه در مجله Oncoscience منتشر شد ذکر کرده بود. ژاورونکوف می‌گوید که شرکت او تا به حال بیش از ۸۰ مقاله را که به وسیله هوش مصنوعی نوشته شده‌اند، منتشر کرده است. او می‌گوید: «ما در این حوزه تازه‌وارد نیستیم.»

در مقاله اخیر مزایا و معایب مصرف داروی راپامایسین در چارچوب بحثی فلسفی به نام شرط‌بندی پاسکال مورد بحث قرار گرفت. ژاورونکوف می‌گوید ChatGPT مقاله‌ای بسیار بهتر از نسل‌های گذشته هوش مصنوعی نوشته است. او می‌گوید نشریه Oncoscience این مقاله را پس از درخواست وی از سردبیرش مورد داوری قرار داد. بااین‌حال مسئولان نشریه به درخواست نیچر برای اظهارنظر پاسخی ندادند.

سرانجام چهارمین مقاله‌ی نوشته‌شده با همکاری ابزار هوش مصنوعی را آلمیرا عثمانوویچ تونستروم، زیست‌شناس عصبی از بیمارستان دانشگاه سالگرینسکا در گوتنبرگ، سوئد با همکاری ابزار GPT-3 نوشته و در تیر ماه (جون ۲۰۲۲) در آرشیو مقالات بازبینی علمی فرانسوی موسوم به HAL ارسال کرده است. این مقاله به زودی در یکی از نشریات علمی معتبر منتشر خواهد شد. تونستروم می‌گوید اولین مجله علمی مقاله را رد کرد، اما مجله دوم پس از بازنویسی‌هایی که به درخواست بازبین‌ها انجام گرفت، مقاله را پذیرفت.

خط مشی‌های ناشران

سردبیران نشریات نیچر و ساینس می‌گویند ChatGPT از استانداردهای لازم برای نویسندگی برخوردار نیست. مگدالنا اسکیپر، سردبیر مجله نیچر می‌گوید: «اعطای عنوان نویسندگی مسئولیتی را برای اثر به همراه دارد که هیچ‌کدام از سیستم‌های پردازش زبان طبیعی دارای آن نیستند.» او همچنین عنوان می‌کند، نویسندگانی که از ابزارهای هوش مصنوعی در تهیه مقالات تحقیقاتی استفاده می‌کنند، باید در بخش‌های دیگری به جز نویسندگی از خدمات هوش مصنوعی تشکر کنند.

هولدن تورپ، سردبیر خانواده نشریات ساینس در واشنگتن دی‌سی نیز در این رابطه اظهار داشت: «ما اجازه نمی‌دهیم که هوش مصنوعی به عنوان نویسنده مقاله‌ای معرفی شود. استفاده از متونی که هوش مصنوعی تولید کرده بدون ارجاعات مناسب می‌تواند سرقت ادبی قلمداد شود.»

سابینا اَلم، مدیر اخلاق و صداقت نشر در گروه انتشاراتی تیلور و فرانسیس، لندن می‌گوید این انتشاراتی هم‌اکنون در حال بازنگری در خط‌مشی‌های خود است. او موافق است که نویسندگان مسئول اعتبار و امانت اثر خود هستند و هرگونه استفاده از ابزارهای هوش مصنوعی را باید در بخش قدردانی‌ها ذکر کرد. الم همچنین عنوان می‌کند که تا به حال تیلور و فرانسیس هیچ مقاله‌ای با نویسندگی مشترک ChatGPT دریافت نکرده‌اند.

اشتاین سیگوردسون، ستاره‌شناس از دانشگاه ایالتی پنسیلوانیا می‌گوید هیئت مدیره‌ی پایگاه علمی arXiv به بحث و گفتگو در مورد استفاده از هوش مصنوعی در مقالات تحقیقاتی نشسته‌اند تا در سیاست‌های خود بازنگری کنند. او موافق است که نرم‌افزار نمی‌تواند نویسنده مقاله باشد. این امر تا حد زیادی به این دلیل است که همچون انسان نمی‌تواند با شرایط استفاده و حق توزیع محتوا موافقت کند. سیگوردسون از مقالات ارسالی به arXiv که در نوشتن آن‌ها از ChatGPT استفاده شده است، اظهار بی‌اطلاعی کرد. اما گفت به زودی دستورالعمل‌های تازه‌ای برای نویسندگان ارائه خواهد شد.

اصول اخلاقی هوش مصنوعی مولد

مت هاجکینسون، مدیر یکپارچگی پژوهشی در دفتر یکپارچگی تحقیقات بریتانیا در لندن می‌گوید در حال حاضر دستورالعمل‌های کاملا واضحی در مورد چارچوب نویسندگی وجود دارد که طبق آن‌، نام چت‌بات ChatGPT نباید به عنوان نویسنده مشترک مقالات ذکر شود. او می‌گوید، طبق یک دستورالعمل، نویسنده مشترک باید «در تهیه‌ی مقاله مشارکت قابل‌توجهی» داشته باشد که ممکن است با ابزارهایی مانند ChatGPT امکان‌پذیر باشد. اما نویسنده همچنین باید این توانایی را داشته باشد که موافقت کند نویسنده مشترک یک مقاله باشد و مسئولیت مقاله یا حداقل بخشی که در آن مشارکت داشته را برعهده بگیرد. او می‌گوید: «واقعا در بخش دوم است که دادن اعتبار نویسنده مشترک به یک ابزار هوش مصنوعی غیرممکن می‌شود.»

ژاورونکوف می‌گوید وقتی سعی کرد ازChatGPT برای نوشتن مقالات فنی‌تر نسبت به مقالات بیان دیدگاه استفاده کند، این چت‌بات مبتنی بر هوش مصنوعی در انجام آن ناموفق بود. او می‌گوید: «[چت‌بات] اکثر اوقات جملاتی که لزوما درست نبودند را بازگو می‌کرد و اگر از او چندین بار یک سوال بپرسید، هر بار پاسخ‌های متفاوتی به شما می‌دهد. بنابراین من قطعا نگران سوءاستفاده از این ابزار در دانشگاه‌ها هستم. چون حالا افرادی بدون تخصص در حوزه‌ای می‌توانند مقالات علمی بنویسند.»

مطالب مشابه

نظرات

درخواست ناموفق بود

درخواست ناموفق بود