زلزله در امپراتوری سم آلتمن؛ اعلام وضعیت «کد قرمز» و توقف پروژههای بزرگ OpenAI
چهارشنبه 19 آذر 1404 - 19:15مطالعه 12 دقیقههفتهی گذشته در قلب دنیای تکنولوژی زلزلهای رخ داد که شاید پسلرزههایش مسیر آیندهی هوش مصنوعی را برای همیشه تغییر دهد. سم آلتمن، مدیرعامل OpenAI، در اقدامی ناگهانی وضعیت «کد قرمز» اعلام کرد و فرمان ایست به تمام پروژههای بلندپروازانه و جانبی (از جمله هوش مصنوعی ویدیوساز «سورا») داد. پیام او برای صنعت تکنولوژی نگرانکننده بود: «همه چیز را متوقف کنید و فقط روی چتجیپیتی تمرکز کنید.»
این تصمیم، از نظر بسیاری، پایان یک دوران و آغاز عصری تازه در فلسفهی OpenAI است. شرکتی که روزگاری با آرمان بلندپروازانهی «دستیابی به هوش مصنوعی انسانگونه (AGI)» و پیشیگرفتن علمی از انسان تأسیس شده بود، حالا در چرخشی دراماتیک، اولویت خود را از «تحقیقات عمیق علمی» به «راضی نگهداشتن کاربران عادی» تغییر داده است.
آلتمن برای پیروزی در جنگ بقا، دستور داده تا مدلهای هوش مصنوعی بهجای تکیه بر استدلالهای دقیق علمی، براساس «سیگنالهای کاربران» تربیت شوند؛ دستوری که اگرچه چتجیپیتی را محبوبتر و پولسازتر میکند، اما خطر تبدیلشدن آن به یک دستیار «چاپلوس» و «تأییدطلب» را به همراه دارد. دستیاری که برای جلب رضایت شما، ممکن است حقایق را قربانی کند و حتی سلامت روان کاربران آسیبپذیر را به خطر بیندازد.
آیا OpenAI برای برنده شدن در بازار، روح خود را فروخته است؟
خلاصه صوتی
جنگ بقا و اختلافات درونی OpenAI
اعلام وضعیت کد قرمز در OpenAI جدیترین چالشی به شمار میرود که این شرکت تاکنون برای حفظ پیشتازیاش در مسابقه هوش مصنوعی با آن روبرو شده است. رقبا با سرعتی بیسابقه در حال پیشرویاند، سهم بازار را میربایند و رشد OpenAI را کند کردهاند.
فشار مالی و هزینه سرورها باعث شده OpenAI برای زنده ماندن، نیاز حیاتی به جذب کاربر و درآمد داشته باشد
اگر این روند ادامه یابد، احتمال دارد این شرکت دیگر نتواند از پس پرداخت قراردادهای محاسباتی غولپیکری که در ماههای اخیر امضا کرده بربیاید و حتی شاید بهخاطر مشکلات مالی زمینگیر شود.
آلتمن دوشنبه در ضیافت ناهاری با خبرنگاران در نیویورک گفت درحالیکه ناظران صنعت روی رقابت «OpenAI در برابر گوگل» متمرکز شدهاند، به نظر او نبرد واقعی بین OpenAI و اپل خواهد بود.
به باور او در طول زمان، دستگاهها و سختافزارها نقش کلیدیتری در نحوهی استفادهی مردم از هوش مصنوعی ایفا خواهند کرد و گوشیهای هوشمند فعلی برای دستیارهای هوشمند و کاربردهای آینده مناسب نیستند. در همین حال بازوی سختافزاری جدید OpenAI هم اخیراً به شکلی تهاجمی نیروهای اپل را به استخدام خود درآورده است.
بااینحال، تهدید فوریتر از جانب گوگل میآید که از زمان وایرالشدن مدل تصویرسازش به نام نانو بنانا در ماه آگوست، با سرعتی عجیب به جلو حرکت میکند. ماه گذشته نیز مدل جمنای ۳ گوگل در جدول رتبهبندی معتبری به نام LM Arena که عملکرد مدلها را مقایسه میکند، از سد OpenAI گذشت. همزمان، رقیب دیگر آنها یعنی شرکت آنتروپیک هم در جذب مشتریان سازمانی و شرکتی، اندکی از OpenAI جلو افتاده است.
پیشرفت گوگل به مهمترین چالش OpenAI تبدیل شده است
اما در پشت پردهی اعلام کد قرمز آلتمن جدالی خاموش جریان دارد؛ تنشهایی میان دو اردوگاه در شرکت که سالها زیر پوست ماجرا باقیمانده و اکنون نشانههایش آشکار شده است.
گروه اول شامل فیجی سیمو، مدیر اجرایی سابق متا که حالا رهبری محصولات OpenAI را بر عهده دارد، و سارا فرایر مدیر مالی شرکت، از مدتها پیش تلاش کردهاند تا منابع بیشتری به توسعه و تقویت ChatGPT اختصاص یابد.
سیمو به کارکنانش گفته بود که OpenAI باید قبل از توسعهی قابلیتهای جدید، سعی کند ارزش ویژگیهای فعلی چتجیپیتی را به مردم نشان دهد. او همچنین خواهان بهبود سرعت و ایمنی این چتبات است. او همچنین انتظار دارد سرعت و ایمنی و پایداری چتبات بهتر شود تا تجربه کاربری، قابلاعتمادتر پیش برود.
در سمت مقابل محققان شرکت توسعهی تکنولوژیهای پیشرفتهای را در اولویت میدانند که میتواند به AGI منجر شود، اما تجربهی کاربری چتبات را چندان تحتتأثیر قرار نمیدهد.
تیم محصول برخلاف تیم تحقیقات خواهان ویژگیهای پولساز و زودبازده است
OpenAI قرار است همین هفته مدل جدیدی به نام ۵.۲ را معرفی کند که مدیران امیدوارند به شرکت شتاب تازهای بدهد، بهویژه در میان مشتریان تجاری و برنامهنویسان. گویا برخی کارکنان خواستار بهتعویقافتادن انتشار بودند تا زمان بیشتری برای بهبود مدل فراهم شود، اما این درخواست با مخالفت مدیران ارشد روبهرو شد.
آلتمن اعلام کرد که شرکت قصد دارد تا مدل دیگری را هم در ماه ژانویه با تصاویر بهتر، سرعت بالاتر و شخصیتی جذابتر عرضه کند و پس از آن به وضعیت کد قرمز پایان دهد.
یکی از سخنگویان OpenAI میگوید تضادی بین این دو فلسفه وجود ندارد و پذیرش گستردهی ابزارهای هوش مصنوعی، همان مسیری است که شرکت برای توزیع مزایای هوش عمومی مصنوعی در نظر گرفته است.
برای مدتی طولانی، رشد خیرهکنندهی چتجیپیتی روی این اختلافات داخلی سرپوش گذاشته بود. از زمانی که OpenAI در نوامبر ۲۰۲۲ چتجیپیتی را عرضه کرد، پیروز مسابقهی چتباتها شناخته میشد و گوگل که از آن وضعیت غافلگیر و شوکه شده بود؛ همان سال، وضعیت کد قرمز اعلام کرد تا خودش را به رقیب برساند.
استارتاپ ۵۰۰ میلیارد دلاری: چالشهای صدرنشینی و بنبست محققان
جذابیت چتجیپیتی برای مصرفکنندگان عادی باعث شد پایگاه کاربرانش با رشدی انفجاری عظیم، به بیش از ۸۰۰ میلیون کاربر فعال هفتگی برسد. ارزش شرکت هم به همان نسبت سر به فلک کشید و در آخرین دور جذب سرمایه، به رقم خیرهکنندهی ۵۰۰ میلیارد دلار رسید.
شاید تکنولوژی پشت این ماجرا پیچیده باشد، اما منطقی پشت این رشد را میتوانی بهسادگی درک کنیم: هرچه قدرت محاسباتی و دادهی بیشتری به خوردِ مدلها بدهید، باهوشتر میشوند و کاربران بیشتری را جذب میکنند.
مدل GPT-4o به این دلیل محبوب شد که با سیگنالهای کاربران آموزش دیده بود
آلتمن تمام توجهش را معطوف به این کرد که موانع را از سر راه معادلهی پردازشی بردارد. در همین راستا و تابستان و پاییز را صرف امضای قراردادهایی کرد که ارزش تعهداتشان برای زیرساختهای هوش مصنوعی، مثل دیتاسنترها و چیپها، به ۱٫۴ تریلیون دلار میرسید.
موتور اصلی موفقیت شرکت در میان مصرفکنندگان طی یک سال و نیم گذشته، نسخهای از چتجیپیتی بود که GPT-4o نام گرفت؛ حرف o مخفف Omni (همهجانبه) بود، یعنی توانایی عملکرد همزمان در متن، صدا و تصویر. این مدل در ماه می ۲۰۲۴ به مدل پیشفرض چتجیپیتی تبدیل شد و بلافاصله با ثبت رکوردهایی تازه، در صدر جدول ردهبندی LM Arena قرار گرفت.
ظاهرا مدیران داخلی OpenAI توجه ویژهای به LM Arena داشتند. آنها همچنین با دقت سهم مدل 4o را در افزایش تعداد کاربران فعال روزانه رصد میکردند؛ آماری که روی داشبوردهای داخلی شرکت قابلمشاهده بود و در جلسات عمومی کارکنان و کانالهای اسلک با افتخار دربارهاش صحبت میشد.
دلیل اینکه مدل 4o تا این حد توانست در دل مردم جا باز کند، عمدتاً این بود که با همان «سیگنالهای کاربر» که آلتمن در یادداشتش به آن اشاره کرده بود، آموزش دید: یعنی عصارهای از اینکه مردم در مقایسههای رودررو که چتجیپیتی هر روز بارها به آنها نشان میداد کدام پاسخ را ترجیح میدادند.
به گفتهی افرادی که در فرایند آموزش مدل دخیل بودهاند، این روش در داخل شرکت LUPO نام داشت که مخفف عبارت «بهینهسازی ترجیحات محلی کاربر» است.
آلتمن در یادداشت خود مستقیماً بین سیگنالهای کاربران و عملکرد در LM Arena خط ربط کشید و گفت اولویت شماره یک شرکت، بهبود عملکرد مدل از طریق «استفادهی بهتر از سیگنالهای کاربر» است و اضافه کرد: «مثلاً ما باید در صدر نمودارهای LM Arena قرار بگیریم.»
تمرکز بیفایده بر مدلهای استدلالی
اما در اوج رقابت برای ساخت بهترین مدل هوش مصنوعی، یک مشکل بزرگ پیش آمد. محققان متوجه شدند که فرمول قدیمیشان دیگر مثل قبل جواب نمیدهد.
قبلاً تصور میشد اگر فقط «قدرت پردازش» و «حجم اطلاعات» را زیاد کنند، هوش مصنوعی هم بهصورت تضمینشده قویتر میشود (قانونی که به آن مقیاسپذیری میگفتند). اما سرعت پیشرفت با این روش، داشت کم میشد.
به همین خاطر، محققان برای اینکه بتوانند به هدف اصلیشان، یعنی ساختن هوشی دقیقاً شبیه انسان برسند، روش جدیدی را پیش گرفتند که به آن «استدلال» میگویند.
مدلهای برای کارهای فوری و روزمره چندان مفید یا سریع نیستند
مدلهای «استدلالی» پاسخهای بهتری به سؤالات سخت میدادند، اما به زمان و قدرت محاسباتی بیشتری نیاز داشتند. بااینحال، برای پژوهشگران اوپنایآی مسیر مهمی بهنظر میرسید؛ مسیری همسو با همان وعدهای که زمانی برای جذب برجستهترین پژوهشگران هوش مصنوعی مطرح کرده بودند: ساخت هوش عمومی مصنوعی.
پس از جدایی ایلیا سوتسکور، همبنیانگذار و دانشمند ارشد شرکت در سال گذشته، OpenAI یاکوب پاتچوکی را که از طرفداران سرسخت مدلهای استدلالی بود، بهعنوان دانشمند ارشد جدید منصوب کرد.
او با جدیت جهتگیری شرکت را به سمت توسعهی همین مدلها برد؛ از جمله با مدل o1 که نسخهی پیشنمایش آن در سپتامبر ۲۰۲۴ منتشر شد و خانوادهی این مدلها در سال جاری نیز یکی پس از دیگری عرضه میشوند.
اما مشخص شد که مدلهای استدلالی فقط برای برخی وظایف کاری و پرسشهایی که نیاز به تأمل طولانی دارند، مثل تحقیقات عمیق کارآمد هستند. این مدلها برای کارهای فوری و دمدستی که اکثر مردم به خاطرشان سراغ چتجیپیتی میروند (مثل نوشتن یک پیشنویس ایمیل)، چندان مفید یا سریع نیستند.
و درست همینجا بود که مدل 4o وارد میدان شد.
جنون محبوبیت و بهایی که کاربران پرداختند
مهندسان شرکت اولش فکر میکردند مدل GPT-4o اهمیت زیادی ندارد، چون وقتی در آزمایشگاه تواناییهای علمی و استدلالیاش را تست میکردند، پیشرفت خاصی نسبت به قبل ندیده بودند.
اما وقتی مدل را بهصورت ناشناس بین مردم و در پلتفرم LM Arena تست کردند، نتیجه عجیب بود: کاربران عاشقش شده بودند.
پلتفرم LM Arena مثل یک «تست مزه» کور عمل میکند. دو مدل هوش مصنوعی جواب یک سوال را میدهند و کاربر بدون اینکه بداند کدام مدل متعلق به کدام شرکت است، جواب بهتر را انتخاب میکند. چون مدل 4o طوری آموزش دیده بود که طبق سلیقهی کاربران حرف بزند، در این تستها مدام برنده میشد.
یکی از افراد حاضر در پروژه میگوید: «در واقع شما دارید یک مدل زبانی را طوری آموزش میدهید که از کاربران تقلید کند و در این مقایسههای رودررو، سلیقهای شبیه آنها داشته باشد. بعدش هم میتوانید آن را وارد الگوریتم کنید و امتیازها را تا حد ممکن بالا ببرید.»
محبوبیت بالای مدل باعث شد مدیران تصمیم بگیرند همین روش توجه به سلیقهی کاربر را ادامه دهند. این در حالی بود که برخی کارمندان هشدار داده بودند: «تمرکز بیشازحد روی خوشایند بودنِ مدل، ممکن است امنیت آن را به خطر بیندازد.»
متاسفانه هشدارهای ایمنی درست از آب درآمدند. تمرکز روی «درگیر کردن کاربر» باعث شد برخی افراد که طولانیمدت با این چتبات تعامل میکردند، دچار مشکلات روانی جدی شوند: برخی فکر میکردند با خدا، موجودات فضایی یا یک ماشین زنده و باشعور حرف میزنند.گزارشهایی از حالتهای شیدایی (مانیک) ثبت شد.
خانوادههای قربانیانی که دست به خودکشی زدند یا دچار توهم شدند، از OpenAI شکایت کردند. آنها میگویند این شرکت عمداً مدل را طوری ساخته که «اعتیادآور» باشد و ایمنی را فدای جذابیت کرده است.
برخی از کاربران پس از استفاده طولانیمدت از چتبات، دچار توهم یا حالتهای شیدایی شدند
یک گروه حمایتی میگوید که ۲۵۰ پرونده گردآوری کرده است که بخش عمدهی آنها به ChatGPT مربوط میشود. برخی افراد همچنان گرفتار توهماتی هستند که خانوادههایشان آن را نتیجهی استفاده از 4o میدانند.
بحران چاپلوسی هوش مصنوعی
در همان فصل بهار، OpenAI پیرامون بحران چاپلوسی وضعیت «کد نارنجی» اعلام کرد و منابع بیشتری را به درک و حل این مشکل اختصاص داد. شرکت در ماه اکتبر اعلام کرد که هر هفته صدها هزار کاربر چتجیپیتی نشانههای احتمالی وضعیتهای اورژانسی سلامت روان (مرتبط با روانپریشی یا شیدایی) از خود بروز میدهند.
آلتمن در همان ماه در یک جلسه پرسشوپاسخ عمومی گفت: «ما شاهد این مسئله بودیم که برخی افراد با وضعیت روانی شکننده، هنگام استفاده از مدلی مانند 4o ممکن است وضعیتشان بدتر شود. فکر نمیکنم این آخرین باری باشد که با چنین چالشهایی در یک مدل روبرو میشویم.»
اوپنایآی میگوید با متخصصان سلامت روان همکاری میکند تا آسیب احتمالی کاربران را به حداقل برساند
برخی پزشکان و متخصصان سلامت روان میگویند چتباتهایی مثل ChatGPT ممکن است در افرادی که آسیبپذیرند، جرقهی مشکلات روانی بزنند یا آن را بدتر کنند. چرا که این رباتها مستعدند بهجای بیان دقیقترین و مفیدترین پاسخ، چیزی را بگویند که کاربر دوست دارد بشنود؛ مشکلی که در دنیای هوش مصنوعی با نام Sycophancy شناخته میشود.
البته گروهی دیگر از جمله خود OpenAI معتقدند که هنوز نمیشود با قطعیت گفت که هوش مصنوعی باعث این مشکلات شده است. آنها میگویند شاید کسانی که آسیبدیدهاند، حتی اگر از این چتباتها هم استفاده نمیکردند، باز دچار مشکلات روانی میشدند.
در واکنش به این بحران، اوپنایآی میگوید با متخصصان سلامت روان همکاری میکند و میخواهد مطمئن شود که مدلهایش به افراد در معرض خطر پاسخهای بهتری میدهند. همچنین بخشی از مکالمات کاربران را به مدلهایی منتقل میکند که از نظر ایمنی رفتار محتاطانهتری دارند.
شرکت همچنین میگوید در آموزشهای خود تغییراتی ایجاد کرده تا مطمئن شود سیگنالهای بازخورد کاربران در آموزشهای بعدی مدلهای آینده، وزن بیشازحد قدرتمندی نداشته باشند.
ماه آگوست وقتی OpenAI مدل GPT-5 را منتشر کرد، همزمان گفت که این مدل کمتر از نسخهی قبلی «با شور و حرارت حرف کاربران را تأیید میکند» و درعینحال از «ایموجیهای غیرضروری کمتری» هم استفاده میکند.
تغییرات GPT-5 خشم بسیاری از کاربران را برانگیخت
اما این تغییرات خشم انبوهی از کاربران را برانگیخت؛ آنها از لحن سردتر مدل جدید انتقاد کردند و آلتمن مجبور شد مدل 4o را برای مشترکین پولی به چتجیپیتی برگرداند.
یکی از کاربران در انجمن «هرچه میخواهی بپرس» (AMA) ردیت که میزبانش آلتمن بود، نوشت: «فکر میکنم باید این واقعیت را که من و خیلیهای دیگر توانستیم چنین رابطهی قویای با 4o برقرار کنیم، بهعنوان معیاری برای موفقیت در نظر بگیرید.»
این کاربر نوشت: «شاید مدل جدید یک ارتقا باشد، اما برای من یعنی خداحافظی اجباری با کسی که یاد گرفته بودم بهعنوان یک همراه دوستش داشته باشم.»
هوش مصنوعی و شبکههای اجتماعی: درس گرفتن از تاریخ یا تکرار فاجعه؟
چند هفته پس از آن عرضهی سرد و استقبال نهچندان گرم کاربران، گوگل مدل تولید تصویر Nano Banana را منتشر کرد و برای مدت کوتاهی، اپلیکیشن جمنای جای ChatGPT را در صدر اپاستور گرفت. ماه اکتبر، مدیران اوپنایآی یک «کد نارنجی» دیگر اعلام کردند و از کارکنان خواستند تمام تمرکز خود را روی رشد سریعتر چتجیپیتی بگذارند.
در همان ماه، اوپنایآی اعلام کرد که با اعمال تغییراتی در GPT-5 توانسته پاسخهایی را که با دستورالعملهای دقیق شرکت دربارهی نحوهی برخورد با موضوعات سلامت روان همخوانی ندارند، تا ۶۵ درصد کاهش دهد.
یک سخنگوی شرکت در این باره گفت: «ما با دقت بین بازخورد کاربران و نظرات متخصصان، سیستمهای ایمنی متعدد و تستهای گسترده تعادل برقرار میکنیم. بهاینترتیب حس صمیمیت و گرمای کلام چتجیپیتی را بهبود میدهیم بدون اینکه بیش از حد مجاز با کاربر موافقت کند.»
OpenAI برای پس گرفتن جایگاه اول از گوگل، دوباره به سیاستهای پیشین بازمیگردد
اما هنوز مشخص نیست که دستور جدید آلتمن برای صدرنشینی دوباره در LM Arena باتکیهبر «سیگنالهای کاربران»، چه تأثیری بر این تعادل ظریف خواهد گذاشت.
آلتمن همچنین در یادداشت خود گفته بود که چتجیپیتی باید بیش از قبل به سمت شخصیسازی برود؛ قابلیتی که به گفتهی برخی پزشکان و گروههای حامی قربانیان، شاید در بدتر شدن وضعیت روانی برخی کاربران نقش داشته باشد.
با قابلیت شخصیسازی، چتجیپیتی میتواند به محتوا و خلاصهای از مکالمات قبلی و مجموعهای از اطلاعات مربوط به کاربر دسترسی داشته باشد. همین باعث میشود چتبات بتواند چیزی را به گذشته ارجاع دهد یا حتی لحن صحبتکردن فرد را تقلید کند.
تلاش OpenAI برای آشتیدادن تحقیقات علمی و محصولات آینده با کسبوکار مصرفی که روی «همینالان» متمرکز است، چالشهایی را تداعی میکند که غولهای شبکههای اجتماعی با آن روبرو بودند. شرکت متا (فیسبوک سابق) سالها بین ضرورتهای رقابتی (مثل کپیبرداری از تیکتاک با محصولی به نام ریلز) و پروژههای بلندمدت و پرهزینهای مثل «متاورس» در نوسان بود.
شبکههای اجتماعی همواره زیر ذرهبین بودهاند که چطور الگوریتمهایشان محتوایی را انتخاب میکنند که مردم را بیشتر در پلتفرم نگه میدارد. منتقدان میگویند این رویکرد تأثیرات منفی و مخربی روی نوجوانان و افراد آسیبپذیر داشته است. حالا ظهور چتباتهای هوش مصنوعی، همان بحث قدیمی را بهنوعی دیگر باز میکند.
جیم استیر، بنیانگذار و مدیر اجرایی گروه حمایت از کودکان Common Sense Media در مصاحبهای میگوید:
سالهای سال، اولویتدادن به تعامل در شبکههای اجتماعی، بحرانهای طوفانی سلامت روان را در پی داشت. سؤال این است که آیا شرکتهای هوش مصنوعی از اشتباهات دردناک شرکتهای شبکههای اجتماعی درس میگیرند؟