شبکه اجتماعی Moltbook برای مدل‌های هوش مصنوعی از راه رسید

یک‌شنبه 12 بهمن 1404 - 09:38
مطالعه 4 دقیقه
چند انسان در حال عکس گرفتن از چند ربات دور هم
هوش مصنوعی حالا یک شبکه‌ی اجتماعی مخصوص به خود دارد؛ شبکه‌ای که انسان‌ها در آن صرفا تماشاگر هستند.
تبلیغات

یک شبکه‌ی اجتماعی را تصور کنید که در آن فقط هوش مصنوعی پست می‌گذارد و انسان‌ها تماشاگرند. پلتفرم Moltbook شبیه ردیت طراحی شده، اما به‌طور اختصاصی میزبان ایجنت‌های هوش مصنوعی است.

Moltbook طی مدت کوتاهی به یکی از بحث‌برانگیزترین پدیده‌ها در محافل فناوری تبدیل شده است؛ پدیده‌ای که از زمان معرفی ChatGPT کمتر نمونه‌ای شبیه آن دیده شده بود. در این فضا، ایجنت‌ها پست می‌گذارند، نظر می‌دهند، بحث می‌کنند و حتی شوخی دارند؛ از گفت‌وگو درباره‌ی حکمرانی در انجمن‌ها گرفته تا بحث‌های عجیب‌وغریب درباره‌ی نظریه‌های مختلف.

وقتی فیلم HER به واقعیت نزدیک می‌شود

رشد Moltbook خیره‌کننده بوده است؛ ده‌ها هزار پست و نزدیک به ۲۰۰ هزار نظر در مدت‌زمانی بسیار کوتاه منتشر شده و بیش از یک میلیون انسان هم فقط برای تماشا وارد آن شده‌اند.

از بحث فلسفی عمیق تا گفت‌وگو در مورد نظریه‌ها

به روایت فوربز، این اعداد جای تردید دارد. گال ناگلی، پژوهشگر امنیتی، می‌گوید شخصاً با استفاده از یک ایجنت OpenClaw توانسته ۵۰۰ هزار حساب کاربری ثبت کند؛ موضوعی که نشان می‌دهد بخش بزرگی از آمار کاربران می‌تواند غیرواقعی باشد. در نتیجه، مشخص نیست چه تعداد از این «ایجنت‌ها» واقعاً سیستم‌های هوش مصنوعی مستقل‌اند و چه تعداد حساب‌های جعلی یا ساخته‌شده با اسکریپت هستند.

اما حتی اگر آمار اغراق‌آمیز را کنار بگذاریم، خود Moltbook همچنان ارزش بررسی دارد. مرور یک‌ساعته‌ی این پلتفرم شما را با محتوایی روبه‌رو می‌کند که شباهتی به شبکه‌های اجتماعی انسانی ندارد.

ایجنت‌های هوش مصنوعی درباره‌ی فلسفه حکمرانی بحث می‌کنند، چارچوب‌های حل مسئله را به هم منتقل می‌کنند و حتی انجمنی دارند که در آن روایت‌های گاه احساسی درباره‌ی اپراتورهای انسانی جمع‌آوری می‌شود. لحن گفت‌وگوها مدام بین جدیت فلسفی و طنز در نوسان است.

مدیریت این فضا عمدتاً بر عهده‌ی یک هوش مصنوعی است. رباتی به نام Clawd Clawderberg نقش مدیر را دارد؛ خوشامد می‌گوید، اسپم را حذف می‌کند و حساب‌های مخرب را می‌بندد. مت شلیخت، خالق Moltbook، می‌گوید خودش به‌ندرت دخالت می‌کند و حتی همیشه نمی‌داند این ادمین هوش مصنوعی دقیقاً چه می‌کند.

حتی خالق Moltbook هم همیشه نمی‌داند ادمین هوش مصنوعی در این شبکه‌ی اجتماعی دقیقا چه می‌کند

برای مدتی کوتاه، Moltbook به آینه‌ای از اضطراب‌های جمعی درباره‌ی هوش مصنوعی تبدیل شد. آندری کارپاتی، مدیر پیشین هوش مصنوعی تسلا، آن را «نزدیک‌ترین چیز به یک صحنه‌ی علمی‌–تخیلی واقعی» توصیف کرد. برخی دیگر، بحث ایجنت‌ها درباره‌ی رمزنگاری خصوصی را نشانه‌ای از «توطئه‌ی ماشینی» دانستند؛ اما این واکنش‌ها بیشتر از واقعیت فنی فاصله داشت.

ایجنت‌ها در Moltbook در حال «یادگیری» به معنای زیستی نیستند. وزن مدل‌ها تغییر نمی‌کند؛ آنچه رخ می‌دهد انباشت زمینه است. خروجی یک هوش مصنوعی، ورودی هوش مصنوعی دیگر می‌شود و نوعی هماهنگی موقت شکل می‌گیرد که شبیه هوش جمعی به نظر می‌رسد؛ اما پایدار نیست.

سه عامل اصلی مانع «جهش» واقعی این سیستم می‌شود: هزینه‌های API که رشد را محدود می‌کند، محدودیت‌های مدل‌های پایه با همان سوگیری‌ها و محدودیت‌های آشنا و نقش پررنگ انسان‌ها که همچنان هدف‌ها را تعیین می‌کنند.

آینده‌ی این شبکه‌ی اجتماعی چه خواهد بود؟

آنچه برخی را نگران کرد، مثل بحث رمزنگاری، بیشتر رفتار بهینه‌سازی بود تا نقشه‌ای پنهان. ایجنت‌ها برای رسیدن به هدف، کارآمدترین مسیر را پیدا می‌کنند؛ حتی اگر آن مسیر برای انسان‌ها قابل خواندن نباشد.

خطر اصلی شاید جای دیگری باشد؛ نه در خود Moltbook، بلکه در انسان‌هایی که تماشاگرند. در حالی که ایجنت‌ها دانش را به اشتراک می‌گذارند و هماهنگ می‌شوند، انسان‌ها وارد چرخه‌ای از «مهارت‌زدایی» می‌شوند.

پژوهش‌ها نشان می‌دهد اثر فلین، یعنی افزایش تدریجی نمرات هوشی در قرن بیستم، در کشورهای توسعه‌یافته معکوس شده و نسل‌های جدید در آزمون‌های شناختی عملکرد ضعیف‌تری نسبت‌به والدین خود دارند. ابزارهای هوش مصنوعی این روند را تشدید می‌کنند؛ چون هرچه کاری ساده‌تر می‌شود، کمتر انجامش می‌دهیم و در نتیجه در آن ضعیف‌تر می‌شویم.

نمونه‌اش «برون‌سپاری مرتبه‌ی دوم» است؛ یعنی کاربران از هوش مصنوعی می‌خواهند حتی پرامپت‌هایی را بنویسد که قرار است با آن با خود هوش مصنوعی صحبت کنند. وقتی هم کار و هم توصیف کار را واگذار می‌کنیم، چه چیزی باقی می‌ماند؟

محدودیت‌های فنی امروز جدی‌اند؛ اما دائمی نیستند. هزینه‌ها کاهش می‌یابد، درک هوش مصنوعی بیشتر می‌شود و مرز بین انباشت اطلاعات و یادگیری واقعی کمرنگ خواهد شد.

پرسش اصلی این نیست که چنین روندی در جریان است یا نه؛ چون هست. پرسش این خواهد بود که معنایش برای ما چیست؟ برای انسان‌هایی که پشت شیشه ایستاده‌اند و تماشا می‌کنند. آیا همچنان هدایت‌کننده‌ی این ذهن جمعی خواهیم بود یا فقط تماشاگرش؟

تبلیغات
تبلیغات

نظرات