بیژن بینایی GitHub
بیژن بینایی Rss

بالاخره تموم شد

نوشته شده توسط بیژن | در دسته روزنامه | نوشته شده در ۲۱-۰۳-۱۳۹۵

۰

DdEndنمی خواستم این پستم یه چیز چرت باشه (ترجیحا یکم دوس داشتم بار آموزشی داشت) ولی خب خبر یکم حالت breaking news داره و دیگه مجبورم کرد که رویه رو عوض کنم…. داستان از اونجا شروع می شه که از حول و حوش سال ۲۰۰۷، سرعت رشد کامپیوتر ها کم کم، کم و کمتر می شد. این کاهش اونقدر شدید بود که توی case خودم سیستمم بعد از آپگرید، با مدل ۸ سال پیشش توی benchmark خیلی فرقی نمی کرد. برای درک بهتر این قضیه بیاین benchmark یه کامپیوتر سال ۲۰۰۳ رو با معادلش (از لحاظ قیمت) توی سال ۲۰۰۵ مقایسه کنیم. توی اون سال ها تقریبا هر دو سال یک بار benchmark ها دو برابر می شد چیزی که تقریبا می شه گفت تو این چند سال اخیر کمتر دیده می شه.

به هر حال از همون سال های 2006 2007 اینتل خیلی تلاش کرد که همچنان روند پیشرفتش رو حفظ کنه. استفاده از core های بیشتر… افزایش TDP ها و در نهایت هم کاهش فیچر سایز تا 14nm تنها option هایی بود که اینتل داشت و خیلی خوب هم توی بازی ازشون استفاده کرد. به نظر شخصیم اگر توی این چند سال گذشته یک معجزه رخ نمی داد (مثل graphene و … ) اینتل محکوم به مرگ بود. چه زود چه دیر.

اما چرا؟ دلیلش سادست. ما همچنان خیلی با قدرت پردازشی که لازم داریم فاصله داریم. به عنوان مثال بازی ها رو در نظر بگیرید. ما برای render کردن یه بازی با کیفییت قابل قبول، تقریبا به قدرت پردازشی ۲۰۰ برابر قدرت پردازشی بهترین cpu های امروزی نیاز داریم. اما مسیله اینجاست که اگر اینتل همه تلاش خودش رو بکنه و در نهایت فیچر سایزش رو به عدد هایی مثل 1nm برسونه طبق همین روند ۸ سال قبل، قدرت CPU ها بیشتر از ۴ برابر نخواهد شد و این یعنی همچنان خیلی خیلی فاصله با ایده آل هامون….
حالا فرض کنیم که تا اون موقع تعداد هسته ها هم به 20 برسه…. پس می شه ۲۵ برابر…. فرکانس رو هم دو برابر کنن می شه ۱۲ برابر… و با یه ضرب و تقسیم ساده می شه رسید به اینکه در بهترین حالت، ما همچنان به ۱۲ CPU نیاز داریم تا بشه به یه fps برای رندر با کیفیت خوب رسید. تازه این با یک TDP وحشتناک در حد ۱۰۰ وات ضربدر ۱۲ هست. و قطعا هیچ کس دوس نداره برای خنک کردن pc خونگیش لوله کشی آب بکنه. خلاصه اینکه رسیدن به رندر هایی مثل این توی gameplay عملا چیزی بیشتر از یک آرزوی دست نیافتنی نیست.

پس یا باید منتظر رخ دادن یه معجزه دیگه در حد BJT بود یا باید مسیله رو از زاویه ای دیگر حل کرد
متاسفانه غول های بزرگی مثل اینتل نمی تونن برای رخ دادن معجزه ها صبر کنند. پس تنها راه تغییر مسیر هست که بالاخره هم اینتل این کار رو کرد. این شرکت ابررسانه این بار می خواد وارد بیابون جدیدی بشه. بیابونی که جز DARPA و چند تا دانشمند تک و توک توی دنیا درش حرفی برای گفتن ندارن. دنیایی به نام بردازش تصویر و پردازش صدا. دنیایی که عملا تیوری های ما از مشتق و انتگرال تا فرکانس و منطق فازی همه و همه چیزایی جز یه مشت ابزار بدرد نخور و غیر efficient نیستن.

خبر از این قراره که اینتل ۱۵٬۰۰۰ تا از کارمنداش رو اخراج کرد (خبرش رو اینجا می تونید بخونید Intel Announces Restructuring) شاید این حرکت سریع و بی برگشت خیلی هم عجیب نبود. به قول شعاعی اینتل سال ها پیش با یک اشتباه بچه گانه بازار موبایل و پردازنده های اونو به کلی از دست داد. برای همین اینبار سره انتخاب استراتژیش برای چیزایی مثل IoT و Wearable Devices ها داره خیلی بیشتر دقت می کنه. علاوه بر اون با توجه به آینده مبهم CPU ها، اینتل برای از دست ندادن سودآوری fab هاش به کمک Altera وارد بازار FPGA ها شد. استفاده از triGate ها توی FPGA، از همون اول پیشرفت های چشم گیری رو نشون داد که عملا نوید پتانسیل سودآودری بالا در این حوزه بود. یکی از خبر های قدیمیش رو می تونید این زیر بخونید

In February 2013, Altera and Intel Corporation jointly announced that the next generation of Altera’s highest performance FPGA products would be produced using Intel’s 14 nm 3-D Tri-Gate transistor technology exclusively.
Break the Bandwidth Barrier with Unimaginable High-Speed Interface Rates Over 2.5 Tbps bandwidth for serial memory with support for Hybrid Memory Cube.

و همونطور که پیشبینی می شد اینطوری اینتل تونست تقریبا نصف درآمدش (حدود ۴۰ درصد) در سال ۲۰۱۵ رو مدیون FPGA های StartIX آلترا باشه. خلاصه قضیه اینکه اینتل آروم آروم داره سرمایه هاش رو از بازار PC خارج می کنه و تقریبا تا ۱۰ سال آینده دیگه نباید امید به بیشتر شدن سرعت CPU ها داشت.

حالا سوال اینجاست که این تصمیم گیری اینتل برای دنیا خوبه یا نه. قطعا برای کارمنداش این اتفاق چیزی جز یک فاجعه نیست. چیزی که دیر یا زود باید اتفاق می افتاد و همه انتظارش رو می کشیدند. اما برای ما که کاربر نهایی هستیم چطور. شاید در نگاه اول ناراحت کننده باشه که بدونیم کامپیوتر ها دیگه هیچوقت سریع تر از اینی که هستند نمی شن. اما اگه دوباره بهش فکر کنید این خبر اونقدر ها هم ناراحت کننده نیس. چرا چون:

  • افزایش سرعت نرم افزار ها

تا به امروز شرکت های تولید نرم افزار ها (مخصوصا برنامه های CAD) و سیستم عامل ها، به بهونه افزایش قدرت کامپیتور ها هر طور که دوست داشتن کد می زدن. برای کاهش هزینه ها از کتاب خونه های سنگین و زبان های سطح بالا به راحتی استفاده می کردن و خب هزینش می افتاد گردن end user که مجبور بود بهای آسودگی برنامه نویس ها رو با هزینه های گزاف آپگرید سیستم بپردازه. این در حالی هست که اگه همه از یک سیستم با یک سرعت مشخص استفاده کنیم شرکت ها مجبور می شن طی develop کردن نرم افزار هاشون حواسشون به حفظ lightweight بودن برنامه ها هم باشه. و هر فیچر احمقانه ای رو الکی به برنامه اضافه نکنن. خلاصه اینکه در آینده شاهد کدهای efficient تری خواهیم بود که کمتر hang می کنند. کمتر کند می شند و robust تر هستند

  • افت قیمت پردازنده ها

دومین مزیتی که خیلی ما رو تحت تاثیر قرار می ده هزینه ها هست. در حال حاضر بیش از ۷۰ درصد هزینه پردازنده ها مربوط به حقوق designer های شرکت هست. وقتی design ای در کار نباشه قطعا حقوقی هم در کار نیست و این به معنای کاهش قیمت شدید در بازار پردازنده هاست. چیزی در این حد که شاید قیمت SSD ها و cpu ها رو تقریبا بشه در یک رده قرار داد. و این منجر به حضور هر چه بیشتر رایانه ها بین مردم خواهد شد. تا اون حد که استعداد های بیشتری توی دنیا شکوفا خواهند شد

  • دیزاین در scale ماکرویو

در حال حاضر تمام design پردازنده ها با فرض فشرده بودن مدار هست. اگر feature size ها کاهش پیدا نکنن تنها راه وارد شدن به حوزه میدان و در نظر گرفتن گسترده بودن مدار هتس

که فعلا نمی یاد