مایکروسافت هشدار داد: کوپایلوت فقط برای سرگرمی است نه برای کارهای جدی

یک‌شنبه 16 فروردین 1405 - 19:15
مطالعه 2 دقیقه
لوگو مایکروسافت کوپایلت مراسم ساتیا نادلا مدیرعامل
تناقض بزرگ مایکروسافت؛ شرکتی که هوش مصنوعی را ناجی کسب‌وکارها می‌داند، در قوانین خود اعتراف کرده کوپایلوت فقط برای سرگرمی است!
تبلیغات

مایکروسافت همواره خدمات هوش مصنوعی خود را با تبلیغات فراوان به کاربران و کسب‌وکارها معرفی می‌کند؛ اما به‌نظر می‌رسد حتی خود این شرکت نیز به دست‌پرورده‌اش اعتماد کامل ندارد. براساس شرایط استفاده از کوپایلت که اکتبر سال گذشته به‌روزرسانی شد، این مدل زبانی صرفا برای مقاصد سرگرمی طراحی شده است و کاربران نباید برای دریافت مشاوره‌های مهم به آن اتکا کنند.

شاید متن بلندبالایِ شرایط استفاده از کوپایلت، صرفا یک سلب مسئولیت حقوقیِ کلیشه‌ای باشد؛ اما با توجه به اصرار مایکروسافت برای استفاده‌ی تجاری از کوپایلت و ادغام عمیق آن در ویندوز ۱۱، تناقضی به شدت طعنه‌آمیز به شمار می‌رود. در این سند صراحتا چنین آمده: «کوپایلوت صرفا برای مقاصد سرگرمی است؛ این ابزار شاید اشتباه کند و عملکرد موردانتظار را نداشته باشد. برای توصیه‌های مهم به کوپایلوت تکیه نکنید و با مسئولیت خودتان از آن استفاده کنید.»

رویکرد محتاطانه‌‌ی مایکروسافت در سلب مسئولیت را باقی شرکت‌های فعال در زمینه‌ی هوش مصنوعی نیز دارند؛ برای مثال، شرکت xAI در قوانین خود هشدار می‌دهد: «هوش مصنوعی به‌سرعت در حال تکامل است و ماهیتی احتمالی دارد؛ بنابراین شاید خروجی‌های آن شامل توهم، محتوای توهین‌آمیز، اطلاعات نادرست درباره‌ی افراد و مکان‌ها یا مواردی باشد که برای هدف شما مناسب نیست.»

برای افرادی که با نحوه‌ی کارکرد مدل‌های زبانی آشنایی دارند، هشدار شرکت‌ها بدیهی به‌نظر می‌رسد؛ اما متاسفانه، برخی کاربران خروجی‌های هوش مصنوعی را به‌عنوان «حقیقت مطلق» می‌پذیرند؛ حتی متخصصانی که انتظار می‌رود محتاط‌تر عمل کنند. نمونه‌ی بارز این موضوع در سرویس‌های AWS آمازون دیده شد؛ جایی‌که اعتماد بدون نظارتِ مهندسان به یک ربات برنامه‌نویس، منجر به قطعی در سرورها شد. وب‌سایت آمازون نیز با چندین آسیب جدی مواجه شد که ریشه در تغییرات ایجادشده توسط هوش مصنوعی مولد داشت و در نهایت پای مهندسان ارشد را برای حل بحران به‌میان کشید.

هوش مصنوعی مولد ابزاری کارآمد برای افزایش بهره‌وری به‌حساب می‌آید؛ اما در نهایت تنها یک ابزار است که در قبال اشتباهاتش به هیچ‌وجه پاسخ‌گو نیست؛ بنابراین کاربران باید همواره با دیده‌ی تردید به خروجی‌هایش نگاه کرده و نتایج را راستی‌آزمایی کنند؛ هرچند که ما انسان‌ها به‌شدت مستعد «سوگیری اتوماسیون» هستیم؛ تمایلی روان‌شناختی که در آن، نتایج تولیدیِ ماشین‌ها را معتبرتر می‌دانیم و داده‌های متناقض را نادیده می‌گیریم. هوش مصنوعی سوگیری اتوماسیون را تشدید می‌کند؛ زیرا می‌تواند نتایجی تولید کند که در نگاه اول کاملا منطقی و درست به‌نظر می‌رسند.

شرکت‌های فناوری معمولا برای محافظت از خود در برابر شکایت‌های قانونی، چنین سلب مسئولیت‌هایی را به محصولاتشان اضافه می‌کنند؛ اما وقتی همین شرکت‌ها هوش مصنوعی خود را به‌عنوان «راهکار نهایی بهره‌وری» تبلیغ می‌کنند، در واقع خطرات آن را کوچک می‌شمارند تا مشتریان را به پرداخت هزینه ترغیب کرده و میلیاردها دلار سرمایه‌گذاری‌شان در بخش سخت‌افزار و نیروی متخصص را جبران کنند.

محتوای این خبر را یکی از کاربران زومیت در اختیارمان قرار داد؛ اگر به اینترنت دسترسی دارید، لطفا خبرهای مهم را از طریق ایمیل hi@zoomit.ir یا بخش دیدگاه‌ها با ما به‌اشتراک بگذارید.

نظرات