تراشه انویدیا در مقابل تراشه‌های گوگل و آمازون

تفاوت تراشه‌های هوش مصنوعی انویدیا با گوگل و آمازون

سه‌شنبه 25 آذر 1404 - 18:15مطالعه 15 دقیقه
تراشه‌ای که برای سرگرمی ساخته شد، امروز موتور محرک هوش مصنوعی و میدان نبردی چند تریلیون دلاری است. در این جنگ پنهان چه می‌گذرد؟
تبلیغات

شاید تا همین دیروز، دیدن لوگوی سبز انویدیا فقط دغدغه‌ی گیمرهایی بود که می‌خواستند جدیدترین بازی‌های ویدیویی را با گرافیک خیره‌کننده تجربه کنند. اما امروز همان قطعه‌ای که وظیفه‌اش سرگرم‌کردن ما بود، با چرخشی تاریخی به موتور محرک هوش مصنوعی و دنیای مدرن تبدیل شده است.

صحبت از جنگی تمام‌عیار بر سر هوش‌ مصنوعی است؛ نبردی پیچیده که در آن گوگل، آمازون و مایکروسافت برای رهایی از انحصار تلاش می‌کنند و سرنوشت اقتصاد جهانی در کارخانه‌هایی در تایوان رقم می‌خورد. در این مقاله می‌خواهیم به پشت‌پرده‌ی دیتاسنترهای غول‌پیکر و استراتژی‌های زیرکانه‌ی رقبای تازه‌نفس سرک بکشیم تا ببینیم در لایه‌های زیرین این صنعت چه می‌گذرد.

خلاصه صوتی

چرا موج هوش مصنوعی به  GPU وابسته است؟

چه چیزی یک تراشه را برای هوش مصنوعی «بهینه» می‌کند و چرا CPUهای قدرتمند سنتی در این عرصه عقب افتادند؟ پاسخ هر دو سؤال را در مفهوم پردازش موازی می‌یابیم.

GPUها در اصل برای هدفی خاص یعنی رندرکردن تصاویر روی صفحه‌نمایش ساخته شده بودند. وقتی کامپیوتر می‌خواهد یک صحنه گرافیکی بازی را نمایش دهد، باید رنگ و نور میلیون‌ها پیکسل را «هم‌زمان» محاسبه کند و همین نیاز به هم‌زمانی، معماری GPU را شکل داد. هوش مصنوعی به‌طرز عجیبی، ماهیت مشابهی دارد.

CPU یا پردازنده‌ی مرکزی، هسته‌های کمی دارد، مثلاً ۸ یا ۱۶ هسته. اما هر هسته‌ی قدرتمندش می‌تواند مسائل پیچیده را یکی پس از دیگری (ترتیبی) حل کند. در مقابل جی‌پی‌یو از هسته‌های زیاد و ساده‌ای بهره می‌برد که نمی‌توانند مسائل پیچیده منطقی را به‌خوبی CPU حل کنند، اما اگر به آن‌ها بگویید «این ضرب ریاضی ساده را روی یک میلیارد عدد به‌طور هم‌زمان انجام دهید»، در کسری از ثانیه کار را تمام می‌کنند.

GPUها دقیقاً برای همان نوع محاسباتی ساخته شده‌اند که یادگیری عمیق به آن نیاز دارد.

در دنیای هوش مصنوعی، داده‌ها اغلب به‌صورت ماتریس‌ها و ساختارهای چندبعدی نمایش داده می‌شوند و ضرب ماتریسی دقیقاً همان کاری است که GPU برایش ساخته شده بود. این تطابق معماری، GPU را از یک «ابزار سرگرمی» به «موتور محرک هوش مصنوعی» تبدیل کرد.

AlexNet و پیوند ناخواسته‌ گرافیک و یادگیری عمیق

هر انقلابی نقطه شروع مشخصی دارد و برای پیوند انویدیا و هوش مصنوعی، این نقطه سال ۲۰۱۲ فرارسید؛ لحظه‌ای که طبق تحلیل CNBC به «بیگ‌بنگ هوش مصنوعی» معروف شد.

تا پیش از آن، مسابقات تشخیص تصویر (Image Recognition) با پیشرفت‌هایی کند و جزئی همراه بود. اما در سال ۲۰۱۲، شبکه عصبی جدیدی به نام AlexNet وارد میدان شد و رقبا را با اختلاف فاحشی شکست داد. دقت AlexNet چنان بالا بود که عملاً روش‌های سنتی برنامه‌نویسی را منسوخ کرد.

محققان سازنده AlexNet متوجه شده بودند که برای آموزش این شبکه عصبی عظیم، CPUهای معمولی بسیار کند هستند. طی تصمیمی خلاقانه، GPU معمولی انویدیا را برداشتند و عملاً آن را «هک» کردند. بدین‌ترتیب توانستند از قابلیت‌های پردازش موازی کارت گرافیک که برای بازی طراحی شده بود، برای انجام محاسبات سنگین یادگیری عمیق استفاده کنند.

ماجرای الکس‌نت ثابت کرد GPU بهترین گزینه برای آموزش شبکه‌های عصبی است؛ جایی که کامپیوتر به‌جای اینکه خط‌به‌خط کدنویسی شود، با دیدن میلیون‌ها الگوی داده، خودش یاد می‌گیرد. این لحظه، مسیر کل صنعت تکنولوژی را تغییر داد و انویدیا در مرکز مهم‌ترین تحول قرن ۲۱ قرار گرفت.

آموزش و استنتاج؛ دو چهره‌ محاسبات هوش مصنوعی

برای درک اینکه این تراشه‌ها دقیقاً چه کاری انجام می‌دهند، باید دو مرحله‌ی کاملاً متمایز در چرخه حیات هوش مصنوعی را بشناسیم: آموزش (Training) و استنتاج (Inference).

مرحله‌ی «آموزش» را می‌توانیم به دوران دانشگاه تشبیه کنیم؛ زمانی که دانشجو باید هزاران کتاب و مقاله را بخواند، حفظ کند و الگوهای پنهان در آن‌ها را بیابد. این مرحله بسیار سخت، زمان‌بر و نیازمند انرژی ذهنی (یا محاسباتی) زیادی است. در دنیای هوش مصنوعی، مدل‌ها در این مرحله با ترابایت‌ها داده تغذیه می‌شوند تا یاد بگیرند.

اما مرحله استنتاج به زمانی شباهت دارد که دانشجو فارغ‌التحصیل شده و وارد بازار کار می‌شود و از دانشش برای حل مسائل روزمره استفاده می‌کند. وقتی با سیری (Siri) صحبت می‌کنید، وقتی اپلیکیشنی به شما پیشنهاد قهوه می‌دهد، یا مدل هوش مصنوعی ایمیلتان را تکمیل می‌کند، همه‌ی این کاربردها خروجی استنتاجی محسوب می‌شوند.

در حال حاضر، بازار عمدتاً روی مرحله‌ی آموزش تمرکز دارد که مستلزم جی‌پی‌یوهای فوق‌العاده قدرتمندی است. اما احتمالاً در آینده‌ی شرایط کاملاً برعکس می‌شود، زیرا هر مدل شاید یک‌بار «آموزش» ببیند، اما میلیون‌ها بار مورد «استفاده» قرار می‌گیرد. پس بازار تراشه‌های سریع‌تر و کم‌مصرف‌تری که فقط برای این مرحله‌ی دوم بهینه شده‌اند به‌زودی رونق خواهد گرفت.

انویدیا فقط تراشه نمی‌فروشد

انویدیا دیگر شرکتی نیست که فقط یک کارت گرافیک را داخل جعبه بگذارد و در قفسه فروشگاه بچیند؛ این شرکت حالا استراتژی‌اش را براساس دیتاسنترها پیش می‌برد.

برای مثال به رک‌های سرور Blackwell توجه کنید. در یکی از این رک‌ها، ۷۲ پردازنده گرافیکی قدرتمند وجود دارد که با تکنولوژی‌های پیشرفته‌ی ارتباطی (Interconnects) به هم متصل شده‌اند.

انویدیا فروشنده‌ی «سیستم کامل محاسباتی» است، از سیلیکون تا نرم‌افزار

رک‌ها طوری طراحی شده‌اند که از نظر نرم‌افزاری دقیقاً مثل یک چیپ غول‌پیکر رفتار کنند. انویدیا ادعا می‌کند که با فروش کل سیستم (شامل چیپ، کابل‌ها، سیستم خنک‌کننده و نرم‌افزار)، می‌تواند بهره‌وری و سرعتی را ارائه دهد که خرید قطعات جداگانه هرگز به آن نمی‌رسد.

قیمت رک‌های سرور حدود ۳ میلیون دلار برآورد می‌شود، ولی تقاضا چنان بالاست که انویدیا هفته‌ای هزار عدد از آن‌ها را بارگیری و ارسال می‌کند. البته در کنار فروش سخت‌افزار، بازار دیگری هم روبه‌رشد است:

غول‌های تکنولوژی مثل مایکروسافت، گوگل و آمازون این پردازنده‌ها را می‌خرند و سپس آن‌ها را به‌صورت ساعتی یا دقیقه‌ای به توسعه‌دهندگان اجاره می‌دهند، پس GPUهای انویدیا عملاً به واحد پول جدید دنیای تکنولوژی تبدیل شده‌اند.

AMD: رقیبی که آرام جلو می‌آید

درحالی‌که انویدیا بازیگر و مسلط و تیتر اول اخبار محسوب می‌شود، رقیب دیرینه‌اش AMD هم با سری تراشه‌های Instinct به‌ویژه مدل‌های MI300 گام‌های بلندی برای تصاحب بخشی از این بازار پرسود برمی‌دارد.

بزرگ‌ترین تفاوت ای‌ام‌دی با انویدیا را نه در سخت‌افزار بلکه در فلسفه نرم‌افزار می‌بینیم. انویدیا از سال‌ها پیش دور سخت‌افزار خود دیواری بلند به نام CUDA کشید؛ پلتفرم نرم‌افزاری اختصاصی‌ای که توسعه‌دهندگان به آن وابسته شده‌اند. در مقابل، AMD رویکردی متفاوت دارد: یک اکوسیستم نرم‌افزاری متن‌باز.

شرکت‌های فناوری مشتاق تعامل با رقیب قدرتمند انویدیا هستند

و حالا به‌نظر می‌رسد این استراتژی در حال جواب‌دادن است. غول‌هایی مثل OpenAI خالق ChatGPT و Oracle تعهدات بزرگی برای استفاده از تراشه‌های AMD داده‌اند، شاید به این دلیل ساده که هیچ‌کس دوست ندارد تک‌قطبی بودن انویدیا ابدی باشد.

شرکت‌های فناوری مشتاق تعامل با دومین بازیگر قدرتمند هستند و ای‌ام‌دی با وعده‌ی عملکرد بالا و شکستن انحصار نرم‌افزاری انویدیا، خود را به‌عنوان تنها جایگزین جدی در بازار GPUهای هوش مصنوعی معرفی می‌کند.

وقتی چاقوی همه‌کاره کافی نیست

برای درک اینکه چرا بازار تراشه‌ها به‌سمت تخصصی‌شدن حرکت می‌کند، می‌توانیم از استعاره‌ی مشهور «چاقوی سوئیسی» و «تیغ جراحی دقیق». استفاده کنیم.

پردازنده‌های گرافیکی انویدیا، همان چاقوی سوئیسی هستند. آن‌ها فوق‌العاده‌اند، انعطاف‌پذیرند و می‌توانند هزاران نوع محاسبات ریاضی مختلف را انجام دهند. اگر فردا الگوریتم‌های هوش مصنوعی کاملاً تغییر کنند، می‌توانید همان GPUهای قبلی را دوباره برنامه‌نویسی کنید تا با روش جدید کار کنند. این انعطاف‌پذیری، کلید محبوبیت آن‌هاست.

ASICها سریع‌تر و کم‌مصرف‌ترند، اما ریسک بالایی دارند

در سوی دیگر، ASICها یا مدارهای مجتمع با کاربرد خاص قرار می‌گیرند. این تراشه‌ها برای انجام یک وظیفه‌ی مشخص ساخته می‌شوند و همان وظیفه را با سرعت و بهره‌وری‌ای انجام می‌دهند که هیچ چاقوی سوئیسی‌ای خوابش را هم نمی‌بیند. آن‌ها شبیه ابزاری هستند که دقیقاً برای بستن یک پیچ خاص در موتور هواپیما تراشیده شده‌اند.

مسئله این است که طراحی ASIC ریسک بسیار بالایی دارد، هزینه‌ای ده‌ها یا حتی صدها میلیون‌دلاری و تصمیمی برگشت‌ناپذیر. وقتی معماری روی سیلیکون ثبت شد، دیگر امکان اصلاح وجود ندارد و اگر الگوریتم هوش‌مصنوعی تغییر کند، آن تراشه‌های گران‌قیمت عملاً بی‌مصرف می‌شوند.

به همین دلیل استارتاپ‌ها معمولاً امنیت و انعطاف GPU را ترجیح می‌دهند، ولی برای بازیگران هوشیاری که می‌دانند دقیقاً چه می‌خواهند، ریسک این قمار ارزشش را دارد.

چرا شرکت‌های ابری سراغ تراشه‌ی خودشان رفتند؟

باوجود بهترین تراشه‌های انویدیا، چرا گوگل، آمازون و مایکروسافت خودشان را به دردسر طراحی تراشه می‌اندازند؟ دلیل اصلی به «مقیاس» برمی‌گردد. وقتی شما صدها هزار سرور دارید، حتی یک‌درصد صرفه‌جویی در مصرف برق یا ۱۰ دلار کاهش هزینه در هر تراشه، در پایان سال به میلیاردها دلار سود تبدیل می‌شود.

غول‌های ابری نمی‌خواهند حاشیه سود نجومی انویدیا را پرداخت کنند. آن‌ها می‌خواهند هزینه‌ی هوش مصنوعی را پایین بیاورند تا سرویس‌هایشان ارزان‌تر و دردسترس‌تر باشد. البته نباید موضوع کنترل را هم دستکم بگیریم. این شرکت‌ها با ساخت تراشه اختصاصی، وابستگی‌شان را به زنجیره‌ی تأمین انویدیا کم می‌کنند.

بااین‌حال رابطه این شرکت‌ها با انویدیا پیچیده است؛ چیزی شبیه دوستی و دشمنی هم‌زمان. آن‌ها ازیک‌طرف تراشه‌های خودشان را می‌سازند تا با انویدیا رقابت کنند و از طرف دیگر همچنان بزرگ‌ترین مشتریان انویدیا هستند. چون عطش جهان برای هوش مصنوعی آن‌قدر زیاد است که هر چه تراشه در بازار باشد، باز هم کافی نیست.

گوگل و TPU: از ۲۰۱۵ تا معماری ترنسفورمر

بسیاری فکر می‌کنند جنگ تراشه‌ها با ChatGPT شروع شد، اما گوگل سال‌ها قبل، در سکوت خبری پایه‌های این انقلاب را بنا می‌نهاد. این شرکت اولین غول تکنولوژی بود که سال ۲۰۱۵، با معرفی TPU (واحد پردازش تنسور)، وارد بازی ASIC شد.

TPU فقط یک سخت‌افزار نبود؛ بلکه بستر مهم‌ترین پیشرفت هوش مصنوعی مدرن شد. سال ۲۰۱۷، محققان گوگل با استفاده از همین TPUها، معماری ترنسفورمر را ابداع کردند؛ همان حرف T در انتهای نام ChatGPT و اساس تمام مدل‌های زبانی امروزی. بدون TPU، شاید ترنسفورمرها هرگز به این سرعت متولد نمی‌شدند.

گوگل سال‌ها پیش از موج ChatGPT، با TPU مسیر معماری ترنسفورمر را هموار کرده بود

امروز گوگل به نسل هفتم این تراشه‌ها رسیده (مانند چیپ‌های Trillium و نسخه جدید Ironwood) و اخیراً مشارکت عظیمی را با شرکت آنتروپیک آغاز کرده است تا مدل زبانی Claude را روی میلیون‌ها واحد TPU آموزش دهد.

گوگل برخلاف انویدیا معمولاً تراشه‌هایش را نمی‌فروشد؛ بلکه آن‌ها را در دیتاسنترهای خودش نگه می‌دارد و قدرتش را از طریق سرویس‌های ابری اجاره می‌دهد. برخی تحلیلگران معتقدند در زمینه‌های خاص، TPUهای گوگل حتی از انویدیا هم جلوترند، اما چون در بازار آزاد فروخته نمی‌شوند، کمتر سروصدا می‌کنند.

آمازون: Trainium و مسیر متفاوت AWS

ماجرای تراشه‌های آمازون از سال ۲۰۱۵ و خرید استارتاپ Annapurna Labs شروع شد، فرصتی که به شرکت اجازه داد تا مغز متفکر تراشه‌سازی را به درون امپراتوری خود بیاورد.

آمازون برخلاف انویدیا که GPUهای همه‌منظوره‌ای می‌سازد، تصمیم گرفت دنیای تراشه‌ها را تقسیم کند. آن‌ها ابتدا Inferentia را در سال ۲۰۱۸ برای کارهای سبک‌تر (استنتاج) معرفی کردند و سپس در سال ۲۰۲۲ با Trainium وارد عرصه‌ی پردازش سنگین (آموزش) شدند.

آمازون نشان داد می‌توان دیتاسنترهایی ساخت که حتی یک GPU انویدیا هم در آن‌ها حضور نداشته باشد

اگر TPU گوگل را شبیه «خط تولید کارخانه‌ای عظیم و یکپارچه» بدانیم که برای ضرب ماتریس‌های غول‌پیکر طراحی شده، تراشه Trainium آمازون به «مجموعه‌ای از کارگاه‌های کوچک و مستقل» شباهت دارد. این معماری به Trainium اجازه می‌دهد انعطاف‌پذیری بیشتری برای انواع مختلف محاسبات داشته باشد.

نتیجه این استراتژی در دیتاسنترهای جدید آمازون مشاهده می‌شود. گزارشگرانی که اخیراً از دیتاسنترهای AWS بازدید کرده‌اند، با صحنه‌ی نادری روبرو شدند: سالن‌هایی پر از سرور که در آن‌ها هیچ خبری ازGPUهای انویدیا نبود.

زیرساخت‌ها به نیم‌میلیون تراشه Trainium مجهز شده بودند و داشتند مدل‌های هوش مصنوعی آنتروپیک را آموزش می‌دادند.

برندگان خاموش عصر هوش مصنوعی

وقتی می‌شنویم گوگل، متا یا مایکروسافت تراشه اختصاصی ساخته‌اند، تصور می‌کنیم مهندسان این شرکت‌ها صفر تا صد کار را خودشان انجام داده‌اند. اما طراحی یک تراشه مدرن به دانش فنی (IP) و زیرساخت‌هایی نیاز دارد که حتی غول‌های نرم‌افزاری هم همیشه در اختیار ندارند. اینجاست که بازیگران پشت پرده وارد می‌شوند: Broadcom و Marvell.

برادکام و مارول، فروشندگان دانش و برندگان بی‌سروصدای این رقابت‌اند

برادکام را می‌توان «سودآورترین بازیگر خاموش» جنگ هوش مصنوعی دانست. این شرکت شریک اصلی گوگل در ساخت TPU بود، به متا در ساخت شتاب‌دهنده‌هایش کمک کرد و حالا قراردادی با OpenAI بسته تا تراشه اختصاصی‌شان را بسازد. طبق برآوردها، برادکام ۷۰ تا ۸۰ درصد بازار ASICهای هوش مصنوعی را در اختیار خواهد گرفت.

این شرکت‌ها دقیقاً چه کاری انجام می‌دهند؟ آن‌ها بلوک‌های آماده‌ی طراحی، تکنولوژی‌های ارتباط سریع (Networking) و دانش نشاندن مدارها روی سیلیکون را می‌فروشند. درحالی‌که انویدیا و گوگل در ویترین با هم می‌جنگند، برادکام در پشت‌صحنه به هر دو طرف مهمات می‌رساند و سودی نجومی از جنگ تراشه‌ها به جیب می‌زند.

مایکروسافت، اینتل و استارتاپ‌های یاغی

در این میان مایکروسافت که سال‌ها به اینتل و سپس انویدیا وابسته بود، حالا پروژه تراشه اختصاصی خودش به نام Maya را برای دیتاسنترهای Azure پیش می‌برد. هرچند گزارش‌ها از تأخیر نسل بعدی این تراشه‌ها می‌گویند، اما عزم مایکروسافت برای کاهش وابستگی جدی است.

اینتل، پادشاه سابق دنیای کامپیوتر هم با خط تولید Gaudi تلاش می‌کند در این بازار جایی برای خود بیابد، هرچند هنوز فاصله‌ی زیادی با بازیگران برتر این عرصه دارد.

اما شاید جذاب‌ترین بخش ماجرا، استارتاپ‌هایی باشند که قواعد بازی را به چالش می‌کشند. شرکت Cerebras با معرفی تراشه‌ای به‌اندازه یک ویفر کامل سیلیکونی تلاش می‌کند محدودیت سرعت انتقال داده بین تراشه‌های کوچک را دور بزند.

شرکت Groq نیز مدعی است با تراشه‌های LPU (واحد پردازش زبان) سرعتی در استنتاج ارائه می‌دهد که GPUها هرگز به آن نمی‌رسند.

Edge AI: هوش مصنوعی از ابر به جیب می‌آید

تا اینجا از دیتاسنترهایی گفتیم که دور از ما، در سالن‌های خنک و پرهیاهو بار اصلی پردازش را به دوش می‌کشند. اما موج بعدی هوش مصنوعی جای دیگری شکل می‌گیرد: روی گوشی، ساعت هوشمند و داخل خودرو. این مفهوم Edge AI یا «هوش مصنوعی لبه» نام دارد.

موج بعدی هوش مصنوعی به گوشی، خودرو و ساعت هوشمند می‌رسد

گذار هوش مصنوعی از ابر به دستگاه شخصی، با سه دلیل منطقی و روشن انجام می‌شود: اول حریم خصوصی، سرعت و هزینه. اجرای محلی مدل‌ها یعنی داده‌های حساس از دستگاه خارج نمی‌شوند، واکنش‌ها آنی‌اند و هزینه‌ی پردازش پایین می‌آید.

برای پاسخ به این نیاز، نسل تازه‌ای از تراشه‌ها به میدان آمده‌اند؛ NPUها یا واحدهای پردازش عصبی که معمولاً در دل پردازنده‌ی اصلی دستگاه‌ها جا می‌گیرند.

اپل با «موتور عصبی» (Neural Engine) در آیفون‌ها و مک‌بوک‌ها پیشگام این مسیر بود و حالا کوالکام، اینتل و سامسونگ همگی NPUهای قدرتمندی را در تراشه‌های خود تعبیه کرده‌اند تا هوش مصنوعی را به‌صورت آفلاین و امن در دستان شما قرار دهند.

FPGA؛ انعطاف بالا، قدرت کمتر

در دنیای تراشه‌ها، یک گزینه‌ی سوم و عجیب هم وجود دارد که نه GPU است و نه ASIC: آرایه‌های گیت قابل‌برنامه‌ریزی میدانی یا FPGA.

اگر ASIC را مثل مجسمه‌ای سنگی بدانیم که بعد از تراشیدن دیگر قابل‌تغییر نیست، FPGA شبیه لگو است. شما می‌توانید سخت‌افزار آن را حتی بعد از ساخت، با تغییر مداربندی داخلی‌اش دوباره برنامه‌ریزی کنید. این ویژگی برای صنایعی که الگوریتم‌هایشان مدام تغییر می‌کند، مثل مخابرات و برخی بخش‌های هوش مصنوعی، بسیار کاربردی خواهد بود.

البته این انعطاف‌پذیری هزینه دارد: FPGAها معمولاً گران‌ترند، کندترند و برق بیشتری نسبت به ASIC مصرف می‌کنند. به همین دلیل برای تولید انبوه مناسب نیستند، اما برای مراحل تحقیق‌وتوسعه یا صنایع خاص، بی‌رقیب‌اند.

اهمیت این بازار آن‌قدر بالاست که اینتل شرکت Altera را به قیمت ۱۶٫۷ میلیارد دلار و ای‌ام‌دی شرکت Xilinx را به قیمت حیرت‌انگیز ۴۹ میلیارد دلار خریدند تا مطمئن شوند این بخش از بازار را از دست نمی‌دهند.

TSMC، تایوان و شکننده‌ترین حلقه‌ زنجیره

تمام تراشه‌هایی که تا به اینجا نام بردیم، از GPUهای انویدیا و TPUهای گوگل گرفته تا تراشه‌های آیفون و حتی جنگنده‌های نظامی؛ توسط شرکتی واحد تولید می‌شوند: شرکت TSMC در تایوان.

این تمرکز جغرافیایی، یکی از بزرگ‌ترین ریسک‌های ژئوپلیتیک قرن ۲۱ به‌شمار می‌آید. اگر تایوان به هر دلیلی، اعم از زلزله یا جنگ متوقف شود، اقتصاد دیجیتال جهان فلج خواهد شد. دولت آمریکا برای مقابله با این ریسک با قانون CHIPS Act و سرمایه‌گذاری‌های میلیاردی، تلاش می‌کند تولید را به خاک خود برگرداند.

اگر تولید TSMC در تایوان متوقف شود، اقتصاد دیجیتال جهان فلج خواهد شد

در حال حاضر اگرچه کارخانه‌های جدید TSMC در آریزونا تراشه‌های ۴ نانومتری مثل سری بلک‌ول انویدیا را تولید می‌کنند، اما پیشرفته‌ترین تکنولوژی روز جهان نظیر تراشه‌ی ۳ نانومتری که در جدیدترین آیفون‌ها استفاده می‌شود همچنان در انحصار تایوان باقی‌مانده است.

از سوی دیگر چین باوجود تحریم‌های سخت‌افزاری و محدودیت در دسترسی به دستگاه‌های لیتوگرافی پیشرفته، با شرکت‌هایی مثل هواوی تلاش می‌کند تا اکوسیستم بومی خودش را بسازد، هرچند راه دشواری در پیش دارد.

آیا کسی می‌تواند انویدیا را کنار بزند؟

در پایان به سؤالی میلیارددلاری می‌رسیم: آیا سلطه‌ی انویدیا پایدار می‌ماند، یا این شرکت هم مشابه اینتل، روزی جایگاه برترش را از دست می‌دهد؟

کارشناسان معتقدند انویدیا به این زودی‌ها از صحنه کنار نمی‌رود. موقعیت امروز این شرکت حاصل شانس یا موج‌های مقطعی نیست. جنسن هوانگ زمانی‌که دیگران هوش مصنوعی را ایده‌ای تخیلی و اغراق‌شده می‌دیدند، میلیاردها دلار روی آن سرمایه‌گذاری کرد و هم‌زمان اکوسیستمی ساخت که ترک‌کردنش برای توسعه‌دهندگان ساده نیست.

این خندق دفاعی نرم‌افزاری یعنی CUDA، مزیتی است که ارزشش از خود تراشه‌ها هم فراتر می‌رود. درعین‌حال بازار هوش مصنوعی آن‌قدر وسیع و بی‌پایان به‌نظر می‌رسد که نیازی نیست حتماً یک نفر بازنده باشد تا دیگری برنده شود.

انویدیا احتمالاً جایگاه ممتاز خود را حفظ خواهد کرد، اما لایه‌های زیرین، از دیتاسنترهای اختصاصی تا پردازش در لبه، میدان نبردی است که به دیگر شرکت‌ها فرصت می‌دهد توازن قدرت را تغییر دهند.

آنچه امروز می‌بینیم پایان رقابت یا حتی نقطه‌ی تعادل آن نیست. ما دقیقاً در لحظه‌ی سوت آغاز مسابقه‌ای ایستاده‌ایم که زیرساخت تمدن آینده را تعریف می‌کند. جنگ تراشه‌ها، تازه شروع شده است.

تبلیغات
تبلیغات

نظرات