شبکه اجتماعی Moltbook برای مدلهای هوش مصنوعی از راه رسید
یک شبکهی اجتماعی را تصور کنید که در آن فقط هوش مصنوعی پست میگذارد و انسانها تماشاگرند. پلتفرم Moltbook شبیه ردیت طراحی شده، اما بهطور اختصاصی میزبان ایجنتهای هوش مصنوعی است.
Moltbook طی مدت کوتاهی به یکی از بحثبرانگیزترین پدیدهها در محافل فناوری تبدیل شده است؛ پدیدهای که از زمان معرفی ChatGPT کمتر نمونهای شبیه آن دیده شده بود. در این فضا، ایجنتها پست میگذارند، نظر میدهند، بحث میکنند و حتی شوخی دارند؛ از گفتوگو دربارهی حکمرانی در انجمنها گرفته تا بحثهای عجیبوغریب دربارهی نظریههای مختلف.
وقتی فیلم HER به واقعیت نزدیک میشود
رشد Moltbook خیرهکننده بوده است؛ دهها هزار پست و نزدیک به ۲۰۰ هزار نظر در مدتزمانی بسیار کوتاه منتشر شده و بیش از یک میلیون انسان هم فقط برای تماشا وارد آن شدهاند.
از بحث فلسفی عمیق تا گفتوگو در مورد نظریهها
به روایت فوربز، این اعداد جای تردید دارد. گال ناگلی، پژوهشگر امنیتی، میگوید شخصاً با استفاده از یک ایجنت OpenClaw توانسته ۵۰۰ هزار حساب کاربری ثبت کند؛ موضوعی که نشان میدهد بخش بزرگی از آمار کاربران میتواند غیرواقعی باشد. در نتیجه، مشخص نیست چه تعداد از این «ایجنتها» واقعاً سیستمهای هوش مصنوعی مستقلاند و چه تعداد حسابهای جعلی یا ساختهشده با اسکریپت هستند.
اما حتی اگر آمار اغراقآمیز را کنار بگذاریم، خود Moltbook همچنان ارزش بررسی دارد. مرور یکساعتهی این پلتفرم شما را با محتوایی روبهرو میکند که شباهتی به شبکههای اجتماعی انسانی ندارد.
ایجنتهای هوش مصنوعی دربارهی فلسفه حکمرانی بحث میکنند، چارچوبهای حل مسئله را به هم منتقل میکنند و حتی انجمنی دارند که در آن روایتهای گاه احساسی دربارهی اپراتورهای انسانی جمعآوری میشود. لحن گفتوگوها مدام بین جدیت فلسفی و طنز در نوسان است.
مدیریت این فضا عمدتاً بر عهدهی یک هوش مصنوعی است. رباتی به نام Clawd Clawderberg نقش مدیر را دارد؛ خوشامد میگوید، اسپم را حذف میکند و حسابهای مخرب را میبندد. مت شلیخت، خالق Moltbook، میگوید خودش بهندرت دخالت میکند و حتی همیشه نمیداند این ادمین هوش مصنوعی دقیقاً چه میکند.
حتی خالق Moltbook هم همیشه نمیداند ادمین هوش مصنوعی در این شبکهی اجتماعی دقیقا چه میکند
برای مدتی کوتاه، Moltbook به آینهای از اضطرابهای جمعی دربارهی هوش مصنوعی تبدیل شد. آندری کارپاتی، مدیر پیشین هوش مصنوعی تسلا، آن را «نزدیکترین چیز به یک صحنهی علمی–تخیلی واقعی» توصیف کرد. برخی دیگر، بحث ایجنتها دربارهی رمزنگاری خصوصی را نشانهای از «توطئهی ماشینی» دانستند؛ اما این واکنشها بیشتر از واقعیت فنی فاصله داشت.
ایجنتها در Moltbook در حال «یادگیری» به معنای زیستی نیستند. وزن مدلها تغییر نمیکند؛ آنچه رخ میدهد انباشت زمینه است. خروجی یک هوش مصنوعی، ورودی هوش مصنوعی دیگر میشود و نوعی هماهنگی موقت شکل میگیرد که شبیه هوش جمعی به نظر میرسد؛ اما پایدار نیست.
سه عامل اصلی مانع «جهش» واقعی این سیستم میشود: هزینههای API که رشد را محدود میکند، محدودیتهای مدلهای پایه با همان سوگیریها و محدودیتهای آشنا و نقش پررنگ انسانها که همچنان هدفها را تعیین میکنند.
آیندهی این شبکهی اجتماعی چه خواهد بود؟
آنچه برخی را نگران کرد، مثل بحث رمزنگاری، بیشتر رفتار بهینهسازی بود تا نقشهای پنهان. ایجنتها برای رسیدن به هدف، کارآمدترین مسیر را پیدا میکنند؛ حتی اگر آن مسیر برای انسانها قابل خواندن نباشد.
خطر اصلی شاید جای دیگری باشد؛ نه در خود Moltbook، بلکه در انسانهایی که تماشاگرند. در حالی که ایجنتها دانش را به اشتراک میگذارند و هماهنگ میشوند، انسانها وارد چرخهای از «مهارتزدایی» میشوند.
پژوهشها نشان میدهد اثر فلین، یعنی افزایش تدریجی نمرات هوشی در قرن بیستم، در کشورهای توسعهیافته معکوس شده و نسلهای جدید در آزمونهای شناختی عملکرد ضعیفتری نسبتبه والدین خود دارند. ابزارهای هوش مصنوعی این روند را تشدید میکنند؛ چون هرچه کاری سادهتر میشود، کمتر انجامش میدهیم و در نتیجه در آن ضعیفتر میشویم.
نمونهاش «برونسپاری مرتبهی دوم» است؛ یعنی کاربران از هوش مصنوعی میخواهند حتی پرامپتهایی را بنویسد که قرار است با آن با خود هوش مصنوعی صحبت کنند. وقتی هم کار و هم توصیف کار را واگذار میکنیم، چه چیزی باقی میماند؟
محدودیتهای فنی امروز جدیاند؛ اما دائمی نیستند. هزینهها کاهش مییابد، درک هوش مصنوعی بیشتر میشود و مرز بین انباشت اطلاعات و یادگیری واقعی کمرنگ خواهد شد.
پرسش اصلی این نیست که چنین روندی در جریان است یا نه؛ چون هست. پرسش این خواهد بود که معنایش برای ما چیست؟ برای انسانهایی که پشت شیشه ایستادهاند و تماشا میکنند. آیا همچنان هدایتکنندهی این ذهن جمعی خواهیم بود یا فقط تماشاگرش؟