تفاوت تراشههای هوش مصنوعی انویدیا با گوگل و آمازون
سهشنبه 25 آذر 1404 - 18:15مطالعه 15 دقیقهشاید تا همین دیروز، دیدن لوگوی سبز انویدیا فقط دغدغهی گیمرهایی بود که میخواستند جدیدترین بازیهای ویدیویی را با گرافیک خیرهکننده تجربه کنند. اما امروز همان قطعهای که وظیفهاش سرگرمکردن ما بود، با چرخشی تاریخی به موتور محرک هوش مصنوعی و دنیای مدرن تبدیل شده است.
صحبت از جنگی تمامعیار بر سر هوش مصنوعی است؛ نبردی پیچیده که در آن گوگل، آمازون و مایکروسافت برای رهایی از انحصار تلاش میکنند و سرنوشت اقتصاد جهانی در کارخانههایی در تایوان رقم میخورد. در این مقاله میخواهیم به پشتپردهی دیتاسنترهای غولپیکر و استراتژیهای زیرکانهی رقبای تازهنفس سرک بکشیم تا ببینیم در لایههای زیرین این صنعت چه میگذرد.
خلاصه صوتی
چرا موج هوش مصنوعی به GPU وابسته است؟
چه چیزی یک تراشه را برای هوش مصنوعی «بهینه» میکند و چرا CPUهای قدرتمند سنتی در این عرصه عقب افتادند؟ پاسخ هر دو سؤال را در مفهوم پردازش موازی مییابیم.
GPUها در اصل برای هدفی خاص یعنی رندرکردن تصاویر روی صفحهنمایش ساخته شده بودند. وقتی کامپیوتر میخواهد یک صحنه گرافیکی بازی را نمایش دهد، باید رنگ و نور میلیونها پیکسل را «همزمان» محاسبه کند و همین نیاز به همزمانی، معماری GPU را شکل داد. هوش مصنوعی بهطرز عجیبی، ماهیت مشابهی دارد.
CPU یا پردازندهی مرکزی، هستههای کمی دارد، مثلاً ۸ یا ۱۶ هسته. اما هر هستهی قدرتمندش میتواند مسائل پیچیده را یکی پس از دیگری (ترتیبی) حل کند. در مقابل جیپییو از هستههای زیاد و سادهای بهره میبرد که نمیتوانند مسائل پیچیده منطقی را بهخوبی CPU حل کنند، اما اگر به آنها بگویید «این ضرب ریاضی ساده را روی یک میلیارد عدد بهطور همزمان انجام دهید»، در کسری از ثانیه کار را تمام میکنند.
GPUها دقیقاً برای همان نوع محاسباتی ساخته شدهاند که یادگیری عمیق به آن نیاز دارد.
در دنیای هوش مصنوعی، دادهها اغلب بهصورت ماتریسها و ساختارهای چندبعدی نمایش داده میشوند و ضرب ماتریسی دقیقاً همان کاری است که GPU برایش ساخته شده بود. این تطابق معماری، GPU را از یک «ابزار سرگرمی» به «موتور محرک هوش مصنوعی» تبدیل کرد.
AlexNet و پیوند ناخواسته گرافیک و یادگیری عمیق
هر انقلابی نقطه شروع مشخصی دارد و برای پیوند انویدیا و هوش مصنوعی، این نقطه سال ۲۰۱۲ فرارسید؛ لحظهای که طبق تحلیل CNBC به «بیگبنگ هوش مصنوعی» معروف شد.
تا پیش از آن، مسابقات تشخیص تصویر (Image Recognition) با پیشرفتهایی کند و جزئی همراه بود. اما در سال ۲۰۱۲، شبکه عصبی جدیدی به نام AlexNet وارد میدان شد و رقبا را با اختلاف فاحشی شکست داد. دقت AlexNet چنان بالا بود که عملاً روشهای سنتی برنامهنویسی را منسوخ کرد.
محققان سازنده AlexNet متوجه شده بودند که برای آموزش این شبکه عصبی عظیم، CPUهای معمولی بسیار کند هستند. طی تصمیمی خلاقانه، GPU معمولی انویدیا را برداشتند و عملاً آن را «هک» کردند. بدینترتیب توانستند از قابلیتهای پردازش موازی کارت گرافیک که برای بازی طراحی شده بود، برای انجام محاسبات سنگین یادگیری عمیق استفاده کنند.
ماجرای الکسنت ثابت کرد GPU بهترین گزینه برای آموزش شبکههای عصبی است؛ جایی که کامپیوتر بهجای اینکه خطبهخط کدنویسی شود، با دیدن میلیونها الگوی داده، خودش یاد میگیرد. این لحظه، مسیر کل صنعت تکنولوژی را تغییر داد و انویدیا در مرکز مهمترین تحول قرن ۲۱ قرار گرفت.
آموزش و استنتاج؛ دو چهره محاسبات هوش مصنوعی
برای درک اینکه این تراشهها دقیقاً چه کاری انجام میدهند، باید دو مرحلهی کاملاً متمایز در چرخه حیات هوش مصنوعی را بشناسیم: آموزش (Training) و استنتاج (Inference).
مرحلهی «آموزش» را میتوانیم به دوران دانشگاه تشبیه کنیم؛ زمانی که دانشجو باید هزاران کتاب و مقاله را بخواند، حفظ کند و الگوهای پنهان در آنها را بیابد. این مرحله بسیار سخت، زمانبر و نیازمند انرژی ذهنی (یا محاسباتی) زیادی است. در دنیای هوش مصنوعی، مدلها در این مرحله با ترابایتها داده تغذیه میشوند تا یاد بگیرند.
اما مرحله استنتاج به زمانی شباهت دارد که دانشجو فارغالتحصیل شده و وارد بازار کار میشود و از دانشش برای حل مسائل روزمره استفاده میکند. وقتی با سیری (Siri) صحبت میکنید، وقتی اپلیکیشنی به شما پیشنهاد قهوه میدهد، یا مدل هوش مصنوعی ایمیلتان را تکمیل میکند، همهی این کاربردها خروجی استنتاجی محسوب میشوند.
در حال حاضر، بازار عمدتاً روی مرحلهی آموزش تمرکز دارد که مستلزم جیپییوهای فوقالعاده قدرتمندی است. اما احتمالاً در آیندهی شرایط کاملاً برعکس میشود، زیرا هر مدل شاید یکبار «آموزش» ببیند، اما میلیونها بار مورد «استفاده» قرار میگیرد. پس بازار تراشههای سریعتر و کممصرفتری که فقط برای این مرحلهی دوم بهینه شدهاند بهزودی رونق خواهد گرفت.
انویدیا فقط تراشه نمیفروشد
انویدیا دیگر شرکتی نیست که فقط یک کارت گرافیک را داخل جعبه بگذارد و در قفسه فروشگاه بچیند؛ این شرکت حالا استراتژیاش را براساس دیتاسنترها پیش میبرد.
برای مثال به رکهای سرور Blackwell توجه کنید. در یکی از این رکها، ۷۲ پردازنده گرافیکی قدرتمند وجود دارد که با تکنولوژیهای پیشرفتهی ارتباطی (Interconnects) به هم متصل شدهاند.
انویدیا فروشندهی «سیستم کامل محاسباتی» است، از سیلیکون تا نرمافزار
رکها طوری طراحی شدهاند که از نظر نرمافزاری دقیقاً مثل یک چیپ غولپیکر رفتار کنند. انویدیا ادعا میکند که با فروش کل سیستم (شامل چیپ، کابلها، سیستم خنککننده و نرمافزار)، میتواند بهرهوری و سرعتی را ارائه دهد که خرید قطعات جداگانه هرگز به آن نمیرسد.
قیمت رکهای سرور حدود ۳ میلیون دلار برآورد میشود، ولی تقاضا چنان بالاست که انویدیا هفتهای هزار عدد از آنها را بارگیری و ارسال میکند. البته در کنار فروش سختافزار، بازار دیگری هم روبهرشد است:
غولهای تکنولوژی مثل مایکروسافت، گوگل و آمازون این پردازندهها را میخرند و سپس آنها را بهصورت ساعتی یا دقیقهای به توسعهدهندگان اجاره میدهند، پس GPUهای انویدیا عملاً به واحد پول جدید دنیای تکنولوژی تبدیل شدهاند.
AMD: رقیبی که آرام جلو میآید
درحالیکه انویدیا بازیگر و مسلط و تیتر اول اخبار محسوب میشود، رقیب دیرینهاش AMD هم با سری تراشههای Instinct بهویژه مدلهای MI300 گامهای بلندی برای تصاحب بخشی از این بازار پرسود برمیدارد.
بزرگترین تفاوت ایامدی با انویدیا را نه در سختافزار بلکه در فلسفه نرمافزار میبینیم. انویدیا از سالها پیش دور سختافزار خود دیواری بلند به نام CUDA کشید؛ پلتفرم نرمافزاری اختصاصیای که توسعهدهندگان به آن وابسته شدهاند. در مقابل، AMD رویکردی متفاوت دارد: یک اکوسیستم نرمافزاری متنباز.
شرکتهای فناوری مشتاق تعامل با رقیب قدرتمند انویدیا هستند
و حالا بهنظر میرسد این استراتژی در حال جوابدادن است. غولهایی مثل OpenAI خالق ChatGPT و Oracle تعهدات بزرگی برای استفاده از تراشههای AMD دادهاند، شاید به این دلیل ساده که هیچکس دوست ندارد تکقطبی بودن انویدیا ابدی باشد.
شرکتهای فناوری مشتاق تعامل با دومین بازیگر قدرتمند هستند و ایامدی با وعدهی عملکرد بالا و شکستن انحصار نرمافزاری انویدیا، خود را بهعنوان تنها جایگزین جدی در بازار GPUهای هوش مصنوعی معرفی میکند.
وقتی چاقوی همهکاره کافی نیست
برای درک اینکه چرا بازار تراشهها بهسمت تخصصیشدن حرکت میکند، میتوانیم از استعارهی مشهور «چاقوی سوئیسی» و «تیغ جراحی دقیق». استفاده کنیم.
پردازندههای گرافیکی انویدیا، همان چاقوی سوئیسی هستند. آنها فوقالعادهاند، انعطافپذیرند و میتوانند هزاران نوع محاسبات ریاضی مختلف را انجام دهند. اگر فردا الگوریتمهای هوش مصنوعی کاملاً تغییر کنند، میتوانید همان GPUهای قبلی را دوباره برنامهنویسی کنید تا با روش جدید کار کنند. این انعطافپذیری، کلید محبوبیت آنهاست.
ASICها سریعتر و کممصرفترند، اما ریسک بالایی دارند
در سوی دیگر، ASICها یا مدارهای مجتمع با کاربرد خاص قرار میگیرند. این تراشهها برای انجام یک وظیفهی مشخص ساخته میشوند و همان وظیفه را با سرعت و بهرهوریای انجام میدهند که هیچ چاقوی سوئیسیای خوابش را هم نمیبیند. آنها شبیه ابزاری هستند که دقیقاً برای بستن یک پیچ خاص در موتور هواپیما تراشیده شدهاند.
مسئله این است که طراحی ASIC ریسک بسیار بالایی دارد، هزینهای دهها یا حتی صدها میلیوندلاری و تصمیمی برگشتناپذیر. وقتی معماری روی سیلیکون ثبت شد، دیگر امکان اصلاح وجود ندارد و اگر الگوریتم هوشمصنوعی تغییر کند، آن تراشههای گرانقیمت عملاً بیمصرف میشوند.
به همین دلیل استارتاپها معمولاً امنیت و انعطاف GPU را ترجیح میدهند، ولی برای بازیگران هوشیاری که میدانند دقیقاً چه میخواهند، ریسک این قمار ارزشش را دارد.
چرا شرکتهای ابری سراغ تراشهی خودشان رفتند؟
باوجود بهترین تراشههای انویدیا، چرا گوگل، آمازون و مایکروسافت خودشان را به دردسر طراحی تراشه میاندازند؟ دلیل اصلی به «مقیاس» برمیگردد. وقتی شما صدها هزار سرور دارید، حتی یکدرصد صرفهجویی در مصرف برق یا ۱۰ دلار کاهش هزینه در هر تراشه، در پایان سال به میلیاردها دلار سود تبدیل میشود.
غولهای ابری نمیخواهند حاشیه سود نجومی انویدیا را پرداخت کنند. آنها میخواهند هزینهی هوش مصنوعی را پایین بیاورند تا سرویسهایشان ارزانتر و دردسترستر باشد. البته نباید موضوع کنترل را هم دستکم بگیریم. این شرکتها با ساخت تراشه اختصاصی، وابستگیشان را به زنجیرهی تأمین انویدیا کم میکنند.
بااینحال رابطه این شرکتها با انویدیا پیچیده است؛ چیزی شبیه دوستی و دشمنی همزمان. آنها ازیکطرف تراشههای خودشان را میسازند تا با انویدیا رقابت کنند و از طرف دیگر همچنان بزرگترین مشتریان انویدیا هستند. چون عطش جهان برای هوش مصنوعی آنقدر زیاد است که هر چه تراشه در بازار باشد، باز هم کافی نیست.
گوگل و TPU: از ۲۰۱۵ تا معماری ترنسفورمر
بسیاری فکر میکنند جنگ تراشهها با ChatGPT شروع شد، اما گوگل سالها قبل، در سکوت خبری پایههای این انقلاب را بنا مینهاد. این شرکت اولین غول تکنولوژی بود که سال ۲۰۱۵، با معرفی TPU (واحد پردازش تنسور)، وارد بازی ASIC شد.
TPU فقط یک سختافزار نبود؛ بلکه بستر مهمترین پیشرفت هوش مصنوعی مدرن شد. سال ۲۰۱۷، محققان گوگل با استفاده از همین TPUها، معماری ترنسفورمر را ابداع کردند؛ همان حرف T در انتهای نام ChatGPT و اساس تمام مدلهای زبانی امروزی. بدون TPU، شاید ترنسفورمرها هرگز به این سرعت متولد نمیشدند.
گوگل سالها پیش از موج ChatGPT، با TPU مسیر معماری ترنسفورمر را هموار کرده بود
امروز گوگل به نسل هفتم این تراشهها رسیده (مانند چیپهای Trillium و نسخه جدید Ironwood) و اخیراً مشارکت عظیمی را با شرکت آنتروپیک آغاز کرده است تا مدل زبانی Claude را روی میلیونها واحد TPU آموزش دهد.
گوگل برخلاف انویدیا معمولاً تراشههایش را نمیفروشد؛ بلکه آنها را در دیتاسنترهای خودش نگه میدارد و قدرتش را از طریق سرویسهای ابری اجاره میدهد. برخی تحلیلگران معتقدند در زمینههای خاص، TPUهای گوگل حتی از انویدیا هم جلوترند، اما چون در بازار آزاد فروخته نمیشوند، کمتر سروصدا میکنند.
آمازون: Trainium و مسیر متفاوت AWS
ماجرای تراشههای آمازون از سال ۲۰۱۵ و خرید استارتاپ Annapurna Labs شروع شد، فرصتی که به شرکت اجازه داد تا مغز متفکر تراشهسازی را به درون امپراتوری خود بیاورد.
آمازون برخلاف انویدیا که GPUهای همهمنظورهای میسازد، تصمیم گرفت دنیای تراشهها را تقسیم کند. آنها ابتدا Inferentia را در سال ۲۰۱۸ برای کارهای سبکتر (استنتاج) معرفی کردند و سپس در سال ۲۰۲۲ با Trainium وارد عرصهی پردازش سنگین (آموزش) شدند.
آمازون نشان داد میتوان دیتاسنترهایی ساخت که حتی یک GPU انویدیا هم در آنها حضور نداشته باشد
اگر TPU گوگل را شبیه «خط تولید کارخانهای عظیم و یکپارچه» بدانیم که برای ضرب ماتریسهای غولپیکر طراحی شده، تراشه Trainium آمازون به «مجموعهای از کارگاههای کوچک و مستقل» شباهت دارد. این معماری به Trainium اجازه میدهد انعطافپذیری بیشتری برای انواع مختلف محاسبات داشته باشد.
نتیجه این استراتژی در دیتاسنترهای جدید آمازون مشاهده میشود. گزارشگرانی که اخیراً از دیتاسنترهای AWS بازدید کردهاند، با صحنهی نادری روبرو شدند: سالنهایی پر از سرور که در آنها هیچ خبری ازGPUهای انویدیا نبود.
زیرساختها به نیممیلیون تراشه Trainium مجهز شده بودند و داشتند مدلهای هوش مصنوعی آنتروپیک را آموزش میدادند.
برندگان خاموش عصر هوش مصنوعی
وقتی میشنویم گوگل، متا یا مایکروسافت تراشه اختصاصی ساختهاند، تصور میکنیم مهندسان این شرکتها صفر تا صد کار را خودشان انجام دادهاند. اما طراحی یک تراشه مدرن به دانش فنی (IP) و زیرساختهایی نیاز دارد که حتی غولهای نرمافزاری هم همیشه در اختیار ندارند. اینجاست که بازیگران پشت پرده وارد میشوند: Broadcom و Marvell.
برادکام و مارول، فروشندگان دانش و برندگان بیسروصدای این رقابتاند
برادکام را میتوان «سودآورترین بازیگر خاموش» جنگ هوش مصنوعی دانست. این شرکت شریک اصلی گوگل در ساخت TPU بود، به متا در ساخت شتابدهندههایش کمک کرد و حالا قراردادی با OpenAI بسته تا تراشه اختصاصیشان را بسازد. طبق برآوردها، برادکام ۷۰ تا ۸۰ درصد بازار ASICهای هوش مصنوعی را در اختیار خواهد گرفت.
این شرکتها دقیقاً چه کاری انجام میدهند؟ آنها بلوکهای آمادهی طراحی، تکنولوژیهای ارتباط سریع (Networking) و دانش نشاندن مدارها روی سیلیکون را میفروشند. درحالیکه انویدیا و گوگل در ویترین با هم میجنگند، برادکام در پشتصحنه به هر دو طرف مهمات میرساند و سودی نجومی از جنگ تراشهها به جیب میزند.
مایکروسافت، اینتل و استارتاپهای یاغی
در این میان مایکروسافت که سالها به اینتل و سپس انویدیا وابسته بود، حالا پروژه تراشه اختصاصی خودش به نام Maya را برای دیتاسنترهای Azure پیش میبرد. هرچند گزارشها از تأخیر نسل بعدی این تراشهها میگویند، اما عزم مایکروسافت برای کاهش وابستگی جدی است.
اینتل، پادشاه سابق دنیای کامپیوتر هم با خط تولید Gaudi تلاش میکند در این بازار جایی برای خود بیابد، هرچند هنوز فاصلهی زیادی با بازیگران برتر این عرصه دارد.
اما شاید جذابترین بخش ماجرا، استارتاپهایی باشند که قواعد بازی را به چالش میکشند. شرکت Cerebras با معرفی تراشهای بهاندازه یک ویفر کامل سیلیکونی تلاش میکند محدودیت سرعت انتقال داده بین تراشههای کوچک را دور بزند.
شرکت Groq نیز مدعی است با تراشههای LPU (واحد پردازش زبان) سرعتی در استنتاج ارائه میدهد که GPUها هرگز به آن نمیرسند.
Edge AI: هوش مصنوعی از ابر به جیب میآید
تا اینجا از دیتاسنترهایی گفتیم که دور از ما، در سالنهای خنک و پرهیاهو بار اصلی پردازش را به دوش میکشند. اما موج بعدی هوش مصنوعی جای دیگری شکل میگیرد: روی گوشی، ساعت هوشمند و داخل خودرو. این مفهوم Edge AI یا «هوش مصنوعی لبه» نام دارد.
موج بعدی هوش مصنوعی به گوشی، خودرو و ساعت هوشمند میرسد
گذار هوش مصنوعی از ابر به دستگاه شخصی، با سه دلیل منطقی و روشن انجام میشود: اول حریم خصوصی، سرعت و هزینه. اجرای محلی مدلها یعنی دادههای حساس از دستگاه خارج نمیشوند، واکنشها آنیاند و هزینهی پردازش پایین میآید.
برای پاسخ به این نیاز، نسل تازهای از تراشهها به میدان آمدهاند؛ NPUها یا واحدهای پردازش عصبی که معمولاً در دل پردازندهی اصلی دستگاهها جا میگیرند.
اپل با «موتور عصبی» (Neural Engine) در آیفونها و مکبوکها پیشگام این مسیر بود و حالا کوالکام، اینتل و سامسونگ همگی NPUهای قدرتمندی را در تراشههای خود تعبیه کردهاند تا هوش مصنوعی را بهصورت آفلاین و امن در دستان شما قرار دهند.
FPGA؛ انعطاف بالا، قدرت کمتر
در دنیای تراشهها، یک گزینهی سوم و عجیب هم وجود دارد که نه GPU است و نه ASIC: آرایههای گیت قابلبرنامهریزی میدانی یا FPGA.
اگر ASIC را مثل مجسمهای سنگی بدانیم که بعد از تراشیدن دیگر قابلتغییر نیست، FPGA شبیه لگو است. شما میتوانید سختافزار آن را حتی بعد از ساخت، با تغییر مداربندی داخلیاش دوباره برنامهریزی کنید. این ویژگی برای صنایعی که الگوریتمهایشان مدام تغییر میکند، مثل مخابرات و برخی بخشهای هوش مصنوعی، بسیار کاربردی خواهد بود.
البته این انعطافپذیری هزینه دارد: FPGAها معمولاً گرانترند، کندترند و برق بیشتری نسبت به ASIC مصرف میکنند. به همین دلیل برای تولید انبوه مناسب نیستند، اما برای مراحل تحقیقوتوسعه یا صنایع خاص، بیرقیباند.
اهمیت این بازار آنقدر بالاست که اینتل شرکت Altera را به قیمت ۱۶٫۷ میلیارد دلار و ایامدی شرکت Xilinx را به قیمت حیرتانگیز ۴۹ میلیارد دلار خریدند تا مطمئن شوند این بخش از بازار را از دست نمیدهند.
TSMC، تایوان و شکنندهترین حلقه زنجیره
تمام تراشههایی که تا به اینجا نام بردیم، از GPUهای انویدیا و TPUهای گوگل گرفته تا تراشههای آیفون و حتی جنگندههای نظامی؛ توسط شرکتی واحد تولید میشوند: شرکت TSMC در تایوان.
این تمرکز جغرافیایی، یکی از بزرگترین ریسکهای ژئوپلیتیک قرن ۲۱ بهشمار میآید. اگر تایوان به هر دلیلی، اعم از زلزله یا جنگ متوقف شود، اقتصاد دیجیتال جهان فلج خواهد شد. دولت آمریکا برای مقابله با این ریسک با قانون CHIPS Act و سرمایهگذاریهای میلیاردی، تلاش میکند تولید را به خاک خود برگرداند.
اگر تولید TSMC در تایوان متوقف شود، اقتصاد دیجیتال جهان فلج خواهد شد
در حال حاضر اگرچه کارخانههای جدید TSMC در آریزونا تراشههای ۴ نانومتری مثل سری بلکول انویدیا را تولید میکنند، اما پیشرفتهترین تکنولوژی روز جهان نظیر تراشهی ۳ نانومتری که در جدیدترین آیفونها استفاده میشود همچنان در انحصار تایوان باقیمانده است.
از سوی دیگر چین باوجود تحریمهای سختافزاری و محدودیت در دسترسی به دستگاههای لیتوگرافی پیشرفته، با شرکتهایی مثل هواوی تلاش میکند تا اکوسیستم بومی خودش را بسازد، هرچند راه دشواری در پیش دارد.
آیا کسی میتواند انویدیا را کنار بزند؟
در پایان به سؤالی میلیارددلاری میرسیم: آیا سلطهی انویدیا پایدار میماند، یا این شرکت هم مشابه اینتل، روزی جایگاه برترش را از دست میدهد؟
کارشناسان معتقدند انویدیا به این زودیها از صحنه کنار نمیرود. موقعیت امروز این شرکت حاصل شانس یا موجهای مقطعی نیست. جنسن هوانگ زمانیکه دیگران هوش مصنوعی را ایدهای تخیلی و اغراقشده میدیدند، میلیاردها دلار روی آن سرمایهگذاری کرد و همزمان اکوسیستمی ساخت که ترککردنش برای توسعهدهندگان ساده نیست.
این خندق دفاعی نرمافزاری یعنی CUDA، مزیتی است که ارزشش از خود تراشهها هم فراتر میرود. درعینحال بازار هوش مصنوعی آنقدر وسیع و بیپایان بهنظر میرسد که نیازی نیست حتماً یک نفر بازنده باشد تا دیگری برنده شود.
انویدیا احتمالاً جایگاه ممتاز خود را حفظ خواهد کرد، اما لایههای زیرین، از دیتاسنترهای اختصاصی تا پردازش در لبه، میدان نبردی است که به دیگر شرکتها فرصت میدهد توازن قدرت را تغییر دهند.
آنچه امروز میبینیم پایان رقابت یا حتی نقطهی تعادل آن نیست. ما دقیقاً در لحظهی سوت آغاز مسابقهای ایستادهایم که زیرساخت تمدن آینده را تعریف میکند. جنگ تراشهها، تازه شروع شده است.