مایکروسافت هشدار داد: کوپایلوت فقط برای سرگرمی است نه برای کارهای جدی
مایکروسافت همواره خدمات هوش مصنوعی خود را با تبلیغات فراوان به کاربران و کسبوکارها معرفی میکند؛ اما بهنظر میرسد حتی خود این شرکت نیز به دستپروردهاش اعتماد کامل ندارد. براساس شرایط استفاده از کوپایلت که اکتبر سال گذشته بهروزرسانی شد، این مدل زبانی صرفا برای مقاصد سرگرمی طراحی شده است و کاربران نباید برای دریافت مشاورههای مهم به آن اتکا کنند.
شاید متن بلندبالایِ شرایط استفاده از کوپایلت، صرفا یک سلب مسئولیت حقوقیِ کلیشهای باشد؛ اما با توجه به اصرار مایکروسافت برای استفادهی تجاری از کوپایلت و ادغام عمیق آن در ویندوز ۱۱، تناقضی به شدت طعنهآمیز به شمار میرود. در این سند صراحتا چنین آمده: «کوپایلوت صرفا برای مقاصد سرگرمی است؛ این ابزار شاید اشتباه کند و عملکرد موردانتظار را نداشته باشد. برای توصیههای مهم به کوپایلوت تکیه نکنید و با مسئولیت خودتان از آن استفاده کنید.»
رویکرد محتاطانهی مایکروسافت در سلب مسئولیت را باقی شرکتهای فعال در زمینهی هوش مصنوعی نیز دارند؛ برای مثال، شرکت xAI در قوانین خود هشدار میدهد: «هوش مصنوعی بهسرعت در حال تکامل است و ماهیتی احتمالی دارد؛ بنابراین شاید خروجیهای آن شامل توهم، محتوای توهینآمیز، اطلاعات نادرست دربارهی افراد و مکانها یا مواردی باشد که برای هدف شما مناسب نیست.»
برای افرادی که با نحوهی کارکرد مدلهای زبانی آشنایی دارند، هشدار شرکتها بدیهی بهنظر میرسد؛ اما متاسفانه، برخی کاربران خروجیهای هوش مصنوعی را بهعنوان «حقیقت مطلق» میپذیرند؛ حتی متخصصانی که انتظار میرود محتاطتر عمل کنند. نمونهی بارز این موضوع در سرویسهای AWS آمازون دیده شد؛ جاییکه اعتماد بدون نظارتِ مهندسان به یک ربات برنامهنویس، منجر به قطعی در سرورها شد. وبسایت آمازون نیز با چندین آسیب جدی مواجه شد که ریشه در تغییرات ایجادشده توسط هوش مصنوعی مولد داشت و در نهایت پای مهندسان ارشد را برای حل بحران بهمیان کشید.
هوش مصنوعی مولد ابزاری کارآمد برای افزایش بهرهوری بهحساب میآید؛ اما در نهایت تنها یک ابزار است که در قبال اشتباهاتش به هیچوجه پاسخگو نیست؛ بنابراین کاربران باید همواره با دیدهی تردید به خروجیهایش نگاه کرده و نتایج را راستیآزمایی کنند؛ هرچند که ما انسانها بهشدت مستعد «سوگیری اتوماسیون» هستیم؛ تمایلی روانشناختی که در آن، نتایج تولیدیِ ماشینها را معتبرتر میدانیم و دادههای متناقض را نادیده میگیریم. هوش مصنوعی سوگیری اتوماسیون را تشدید میکند؛ زیرا میتواند نتایجی تولید کند که در نگاه اول کاملا منطقی و درست بهنظر میرسند.
شرکتهای فناوری معمولا برای محافظت از خود در برابر شکایتهای قانونی، چنین سلب مسئولیتهایی را به محصولاتشان اضافه میکنند؛ اما وقتی همین شرکتها هوش مصنوعی خود را بهعنوان «راهکار نهایی بهرهوری» تبلیغ میکنند، در واقع خطرات آن را کوچک میشمارند تا مشتریان را به پرداخت هزینه ترغیب کرده و میلیاردها دلار سرمایهگذاریشان در بخش سختافزار و نیروی متخصص را جبران کنند.
محتوای این خبر را یکی از کاربران زومیت در اختیارمان قرار داد؛ اگر به اینترنت دسترسی دارید، لطفا خبرهای مهم را از طریق ایمیل hi@zoomit.ir یا بخش دیدگاهها با ما بهاشتراک بگذارید.