ایلان ماسک تأیید کرد: xAI از مدل‌های OpenAI برای آموزش Grok استفاده کرده است

جمعه 11 اردیبهشت 1405 - 18:55
مطالعه 2 دقیقه
لوگو شرکت ایکس ای آی xAI ایلان ماسک
ایلان ماسک در جریان شهادت خود در یک دادگاه فدرال تأیید کرد که استارتاپ هوش مصنوعی او از مدل‌های OpenAI برای آموزش و بهبود مدل‌های خود بهره برده است.
تبلیغات

روز پنجشنبه در یک دادگاه فدرال در کالیفرنیا، ایلان ماسک شهادت داد که استارتاپ هوش مصنوعی او، xAI، از مدل‌های OpenAI برای بهبود مدل‌های خود استفاده کرده؛ موضوع مورد بحث در این پرونده، Model Distillation یا تقطیر مدل است؛ رویه‌ای رایج در صنعت که در آن، مدل بزرگ‌تر هوش مصنوعی به‌عنوان معلم عمل می‌کند تا دانش خود را به مدل کوچک‌تر هوش مصنوعی منتقل کند.

روش تقطیر مدل، اغلب به‌صورت قانونی در داخل شرکت‌ها و با استفاده از مدل‌های اختصاصی خودشان برای آموزش مدلی دیگر به کار می‌رود؛ اما گاهی استارتاپ‌های کوچک‌تر، از آن برای تقلید از عملکرد مدل یک رقیب بزرگ‌تر استفاده می‌کنند.

هنگامی که در جایگاه شهود از ماسک پرسیده شد که آیا می‌داند تقطیر مدل چیست، او پاسخ داد که این کار به‌معنای استفاده از یک مدل هوش مصنوعی برای آموزش مدلی دیگر است؛ وقتی از او پرسیده شد که آیا xAI فناوری OpenAI را تقطیر کرده، به‌نظر می‌رسید ماسک از پاسخ مستقیم طفره می‌رود و گفت: «به‌طور کلی تمام شرکت‌های هوش مصنوعی» چنین کاری می‌کنند. وقتی پرسیده شد که آیا این پاسخ به معنای «بله» است، او پاسخ داد: «تا حدی.»

با اصرار بیشتر دادگاه، ماسک توضیح داد:

استفاده از مدل‌های هوش مصنوعی دیگر برای اعتبارسنجی هوش مصنوعی خودتان، یک رویه‌ی استاندارد است.
- ایلان ماسک، مدیرعامل xAI

تقطیر مدل در سال‌های اخیر رو به افزایش بوده و جنجال‌های زیادی را در میان آزمایشگاه‌های هوش مصنوعی برانگیخته؛ زیرا مرز بین آنچه قانونی است و آنچه ناقض شرایط یا سیاست‌های خاص یک شرکت محسوب می‌شود، اغلب در هاله‌ای از ابهام قرار دارد.

شرکت‌هایی مانند OpenAI و آنتروپیک، شرکت‌های چینی را به تقطیر مدل‌های خود متهم کرده‌اند؛ OpenAI علنا نگرانی‌های خود را در مورد شرکت دیپ‌سیک ابراز کرده و آنتروپیک به‌طور مشخص از شرکت‌های دیپ‌سیک، مون‌شات و مینی‌مکس نام برده؛ گوگل نیز اقداماتی را برای جلوگیری از آنچه «حملات تقطیر» یا «روشی برای سرقت مالکیت معنوی که ناقض شرایط خدمات گوگل است» می‌نامد، انجام داده است.

آنتروپیک در پست وبلاگی خود درباره‌ی موضوع تقطیر مدل‌ها نوشته: «تقطیر یک روش آموزشی پرکاربرد و مشروع محسوب می‌شود؛ به‌عنوان مثال، آزمایشگاه‌های پیشگام هوش مصنوعی به‌طور معمول مدل‌های خود را تقطیر می‌کنند تا نسخه‌های کوچک‌تر و ارزان‌تری برای مشتریانشان بسازند؛ اما تقطیر می‌تواند برای اهداف غیرقانونی نیز مورد استفاده قرار گیرد؛ رقبا می‌توانند از این طریق به قابلیت‌های قدرتمند سایر آزمایشگاه‌ها در کسری از زمان و با کسری از هزینه‌ای که برای توسعه‌ی مستقل آن‌ها نیاز است، دست یابند.»

نظرات