یادگیری ماشین و مسائل حل‌نشدنی در ریاضیات

سه‌شنبه ۱۶ بهمن ۱۳۹۷ - ۲۳:۱۵
مطالعه 3 دقیقه
مسائل ساده در زمینه‌ی هوش مصنوعی، پژوهشگران را به رویارویی با مسائل حل‌نشدنی در ریاضیات مجبور کرده است.
تبلیغات

گروهی از پژوهشگران حین انجام تحقیقاتی در زمینه‌ی یادگیری ماشین، با سؤالاتی مواجه شده‌اند که ارتباط تنگاتنگی با مسئله‌ای حل‌نشدنی در ریاضیات دارد. این مسئله به «فرضیه‌ی پیوستار» معروف است. در دهه‌ی ۱۹۳۰، کورت گودل، ریاضی‌دان اتریشی، اولین‌بار ادعا کرد این مسئله حل‌نشدنی است.

مسئله‌ای که این پژوهشگران با آن رو‌به‌رو بودند، مسئله‌ی «یادگیری» نام دارد. این مسئله بررسی می‌کند آیا می‌توان با استفاده از داده‌های محدود، الگوریتمی برای حدس‌زدن الگوها یافت یا خیر. طبق مقاله‌ای که ۷ژانویه (برابر با ۱۷دی) در مجله‌ی Nature Machine Intelligence منتشر شد، این مسئله صورت جدیدی از فرضیه‌ی اثبات‌نشده‌ی پیوستار در ریاضیات است.

به‌گفته‌ی امیر یهودیف، یکی از نویسندگان این مقاله، دستیابی به چنین مطلبی برای ما بسیار تعجب‌آور بود. البته، یافتن مسئله‌ای حل‌نشدنی در ریاضیات موضوع جدید و عجیبی نیست؛ اما تبدیل‌شدن مسئله‌ای ساده در یادگیری ماشین به چنین مسئله‌ی پیچیده‌ای در ریاضیات شگفت‌آور است.

به‌عقیده‌ی جان توکر، متخصص علوم کامپیوتر، این مقاله نتیجه‌ای بسیار ارزشمند است که مفاهیم پایه‌ای برای هر دو شاخه‌ی ریاضیات و یادگیری ماشین در پی دارد.

فرض پیوستار در ریاضیات، فرضیه‌ای است که درباره‌ی اندازه‌ی مجموعه‌های نامتناهی اظهارنظر می‌کند. طبق این فرضیه، هیچ مجموعه‌ای وجود ندارد که اندازه‌ی آن بین اندازه‌ی مجموعه‌ی اعداد صحیح و اندازه‌ی مجموعه‌ی اعداد حقیقی باشد.

دانشمندان یادگیری را این‌گونه تعریف می‌کنند:

توانایی یک الگوریتم برای وسیع‌کردن دانش کسب‌شده به‌وسیله‌ی خودش. این نوع الگوریتم معمولا به سؤالی مشخص جواب «بله» یا «خیر» می‌دهد. برای مثال، می‌توان الگوریتمی طراحی کرد که پس از تغذیه با استفاده از تعدادی تصویر گربه، بتواند به این پرسش برای تصویری جدید که قبلا ندیده پاسخ دهد: آیا در تصویر گربه‌ای وجود دارد؟

یهودیف و همکارانش هنگام کار روی مسئله‌ی یادگیری و مسئله‌ی فشرده‌سازی، به فرضیه‌ی پیوستار برخوردند. هدف آن‌ها این بود همه‌ی ویژگی‌های مهم یک مجموعه را در مجموعه‌ای کوچک‌تر خلاصه کنند. این پژوهشگران در مسیر پاسخ به این پرسش به مسئله‌ای در نظریه‌ی مجموعه‌ها می‌رسیدند.

جورج کانتور، مبدع نظریه‌ی مجموعه‌ها، در دهه‌ی ۱۸۷۰ بیان کرد همه‌ی مجموعه‌های نامتناهی باهم برابر نیستند. به‌طور خاص، مجموعه‌ی اعداد صحیح از مجموعه‌ی اعداد حقیقی کوچک‌تر است؛ هرچند هر دوِ آن‌ها مجموعه‌هایی نامتناهی (دارای بی‌شمار عضو) هستند. کانتور همچنین حدس زد هیج مجموعه‌ای وجود ندارد که اندازه‌ی آن بین اندازه‌ی مجموعه‌ی اعداد صحیح و اعداد حقیقی باشد. او و بسیاری از ریاضی‌دانان و فلاسفه‌ی پس از او، موفق نشدند این حدس را اثبات کنند.

درواقع، همه‌ی تلاش‌های آن‌ها در این زمینه بیهوده بود؛ زیرا در سال ۱۹۴۰، گودل نشان داد با درنظرگرفتن اصول استاندارد، نمی‌توان این فرضیه را رد یا اثبات کرد. در دهه‌ی ۱۹۶۰، کوهن، ریاضی‌دان آمریکایی، دیدگاه‌های گودل دراین‌باره را تکمیل کرد. تأیید یا تکذیب فرضیه‌ی پیوستار، همانند تأیید یا تکذیب اصل توازی اقلیدسی در هندسه که ما را به هندسی اقلیدسی یا هذلولی یا ریمانی هدایت می‌کند، به ما تئوری سازگار جداگانه‌ای در ریاضیات می‌دهد.

گودل و کوهن نشان دادند اگر فرضیه‌ی پیوستار درست باشد، اصولی یکدست در ریاضیات پدید می‌آید و اگر نادرست باشد، اصولی کاملا متفاوت و جداگانه به‌وجود می‌آید.

معماهای ریاضی

در مقاله‌ی یهودیف و همکارانش، یادگیری به‌عنوان نوعی توانایی تعریف می‌شود. با داشتن این توانایی، می‌توان با مدل‌سازی مجموعه‌های کوچک درباره‌ی ویژگی‌های مجموعه‌های بزرگ‌تر حدس‌هایی زد. نکته‌ی مشترک مسئله‌ی یادگیری با فرضیه‌ی پیوستار این است که بی‌شمار راه برای تعیین مجموعه‌ی مدل وجود دارد؛ اما تعداد این راه‌ها مشخص نیست. یهودیف می‌گوید:

اگر فرضیه‌ی پیوستار درست باشد، جمع‌آوری نمونه‌ای متناهی برای مدل‌سازی کافی است؛ اما اگر فرضیه‌ی پیوستار درست نباشد، مجموعه‌ی متناهی برای این کار کافی نیست.

به‌عقیده‌ی یهودیف، اگر واقعا بخواهیم مسئله‌ی یادگیری را بفهمیم، درک ارتباط بین فشرده‌سازی و تعمیم‌دادن مدل به مجموعه‌ی نامتناهی امر مهمی است.

دانشمندان تعدادی مسئله‌ی حل‌نشدنی دیگر مشابه آنچه‌ گفته شد، در طول ادوار مختلف یافته‌اند. برای نمونه، الن تیورینگ، مبدع نظریه‌ی الگوریتم‌ها، مسائلی طراحی کرد که هیچ رایانه‌ای نمی‌تواند آن‌ها را طی چند مرحله‌ی متناهی انجام دهد. باوجوداین، فرضیه‌ی پیوستار مسئله‌ی حل‌نشدنی بسیار خاصی است که احتمال دارد ناشی از گونه‌ای ناکاملی در زبان ریاضیات باشد. این فرضیه تأثیر مهمی در تئوری یادگیری ماشینی دارد؛ هرچند درعمل، احتمالا تأثیر خاصی نخواهد داشت.

تبلیغات
داغ‌ترین مطالب روز

نظرات

تبلیغات