طراحی و ساخت ابر رایانه‌ها از گذشته تا امروز
 

به رایانه هایی، ابر رایانه می گویند که در زمان معرفی از نظر ظرفیت پردازش و به ویژه سرعت محاسبه از دیگر ماشین ها قوی تر باشد. نخستین ابر رایانه ها در دهه ۱۹۶۰ به طور عمده در مؤسسه اطلاعات کنترل (CDC) توسط «سیمور کری» (Seymour Cray‌) طراحی شد. کری تا دهه ۱۹۷۰ زمانی که برای بنیان گذاری شرکت خود پژوهشکده کری، از آن جدا شد آن را هدایت می کرد. کری بعدها با طرح های جدید خود بازار ابر رایانه را در دست گرفت و تا ۲۵ سال (۱۹۶۵ ۱۹۹۰) بی رقیب ماند. در دهه ۱۹۸۰به موازات تولید یک دهه قبل تر از رایانه های کوچک، شمار زیادی از رقیبان کوچک تر وارد بازار شدند اما بسیاری از آن ها در رکود بازار ابر رایانه های اواسط دهه ۱۹۹۰ ناپدید شدند. امروزه ابر رایانه ها طرح های یک بار تولید شونده هستند که توسط شرکت های سنتی مانند IBMو HP طراحی می شوند. این شرکت ها بسیاری از شرکت های دهه ۱۹۸۰ را برای استفاده از تجارب خود خریداری کردند. هر چند در طراحی ابر رایانه ها مؤسسه کری متخصص تر است.
معنای کلمه ابر رایانه تا حدی متغیر است و ابر رایانه های امروزی فردا دیگر کاربردی نخواهند داشت، همان گونه که از کولاسوس (Colossus)،‌ نخستین رایانه الکترونیکی برنامه دار رقمی دنیا، که در طول جنگ جهانی دوم رمزهای آلمانی ها را می شکست، پیدا است. ماشین های اولیه «سی دی سی» (CDC) صرفاً پردازنده های منفرد پر سرعتی بودند که تا ده برابر سریع تر از سریع ترین ماشین هایی که توسط دیگر شرکت ها معرفی شده بودند کار می کردند. در دهه ۱۹۷۰ بیشتر ابر رایانه ها برای استفاده از پردازنده بُرداری طراحی می شدند و بسیاری از بازیگرهای تازه کار برای ورود به بازار پردازنده هایی از این نوع را با قیمت ارزان تر عرضه می کردند. در دهه های ۱۹۸۰و ۱۹۹۰ پردازنده های برداری جای خود را به سیستم های پردازش موازی فشرده با هزاران سی پی یو (CPU) ساده ای داد که برخی از آن ها واحدهای غیر مرسوم و برخی طرح های متداول و سنتی بودند. امروزه طرح های موازی بر پایه ریزپردازنده های RISCغیر مرسوم مانند PowerPCیا PA_RISC قرار دارند.
ابزارهای نرم افزاری پردازش توزیعی، APIاستاندارد از جمله MPIو PVMو راه حل های نرم افزاری متکی بر منبع باز مانند Beowulfو openMosixهستند که کار ساخت نوعی از ابر رایانه های مجازی با استفاده از مجموعه های ایستگاه کارها و خدمات عادی را تسهیل بخشید. فن آوری هایی مانند Rendezvousراه تولید خوشه ای رایانه های ویژه را هموار ساخت. یک نمونه، تابع تفسیر توزیعی در برنامه کاربردی ترکیبی Apple’s Shakeاست. رایانه هایی که از نرم افزار Shake استفاده می کنند کافی است فقط در شبکه در مجاورت یک دیگر باشند تا به طور خودکار منابع همدیگر را پیدا کرده و مورد استفاده قرار دهند. در حالی که هنوز هیچ کس خوشه رایانه ویژه ای بهتر از ابر رایانه های سال گذشته نساخته است. فاصله بین رایانه های رومیزی یا حتی لپ تاپ ها و ابر رایانه ها در حال ناپدید شدن است و این احتمال وجود دارد که این روند با افزایش پشتیبانی توکار برای همسانی (parallelism) و پردازش توزیعی در سیستم عامل های رایانه‌های رومیزی تداوم یابد. یک زبان برنامه نویسی آسان برای ابر رایانه ها مبحث تحقیقاتی باز و وسیعی را در علم رایانه به جای می گذارد.
ابر رایانه ها برای کارهایی که به محاسبات زیاد و دقیق نیازمند هستند به کار می روند از جمله: پیش بینی وضع هوا، تحقیقات آب و هوایی که شامل گرم شدن جهانی می شود، نمونه سازی مولکولی (محاسبه ساختارها و ویژگی ترکیب های شیمیایی، درشت مولکول های زیستی، بسپارها و بلورها، شبیه سازی های فیزیکی مانند شبیه سازی هواپیما در تونل باد، شبیه سازی انفجار جنگ افزار های هسته ای و تحقیقات در مورد جوش هسته ای، رمز گشایی و مانند آن. اغلب مؤسسه های نظامی و علمی از بزرگ ترین مشتری های ابر رایانه ها به شمار می روند.
ابر رایانه ها به دلیل به کار گیری طرح های ابتکاری و جدید با سرعتی بیشتر از رایانه های متداول کار می کنند. این طرح ها آن ها را قادر می سازد، بسیاری از محاسبات و فعالیت ها را با وجود نیاز به بررسی فنی جزییات به صورت موازی انجام دهند. آن ها بیشتر برای انجام گونه های خاصی از محاسبات تخصص دارند و در برابر بیشتر کارهای محاسباتی عادی عملکرد ضعیفی از خود نشان می دهند.
‌سازمان‌دهی حافظه این رایانه ها به دقت تنظیم شده است تا در تمامی زمان ها، پردازنده با داده ها و دستور العمل ها تغذیه شود. در واقع بیشتر تفاوت پیاده سازی بین رایانه های کندتر و ابر رایانه ها به خاطر طرح سازمان دهی حافظه و ترکیب بندی اجزا است.
قانون Amdahlبرای تمامی سیستم های موازی صادق است. ابر رایانه ها تلاش زیادی را برای حذف توالی نرم افزاری اعمال می‌کنند و برای شتاب دادن به تنگناهای (bottlenecks) باقی مانده از سخت افزار بهره می گیرند.
یک ابر رایانه تولید گرمای زیادی می کند و باید خنک شود. خنک سازی بیشتر ابر رایانه ها یک مشکل بزرگ است.
اطلاعات نمی توانند با سرعتی بیشر از سرعت نور بین دو جز یک ابر رایانه جا به جا شوند. به همین دلیل، ابر رایانه هایی که چندین متر طول دارند باید دارای زمان پاسخگویی دست کم یک دهم نانو ثانیه باشد. به این خاطر در طرح ابر رایانه کری ساخت سیمور کری از کابل های کوتاه استفاده شده بود.
ابر رایانه ها مقادیر زیادی داده را در مدت زمان کوتاهی مصرف و تولید می کنند. برای اطمینان از این که اطلاعات به سرعت منتقل و به درستی ذخیره و باز یابی می شود به کاری بیشتر نیاز است.
روش های پردازش برداری نخستین بار برای ابر رایانه ها توسعه یافت و همچنان در برنامه های کاربردی با کارایی بالا مورد استفاده قرار می گیرد. روش های پردازش برداری به بازار مجتمع در معماری DSP و دستورهای پردازش SIMD برای رایانه های چند منظوره تحلیل یافته است.
سیستم عامل هایی که اغلب نسخه ای از لینوکس هستند، با سیستم عامل های دیگر ماشین های کوچک تر تفاوتی ندارند. به هر حال از آن جا که توسعه دهندگان سیستم های عامل منابع برنامه نویسی را محدود کرده اند، رابط کاربری آن ها ضعیف تر است و از این واقعیت منتج می شود که وقتی این رایانه ها که اغلب قیمتی برابر با صدها هزار دلار دارند به بازار های خیلی کوچک فروخته می شوند بودجه آن ها اغلب محدود می شود.
معماری موازی ابر رایانه ها اغلب استفاده از روش های برنامه نویسی خاصی را برای به کارگیری سرعت تحمیل می کند. کمپایلرهای فرترن تک منظوره سریع تر از کمپایلرهای زبان برنامه نویسی Cو زبان برنامه نویسی ++Cکد تولید می کنند. بنا بر این فرترن زبان انتخابی برنامه‌نویسی علمی و بنابر این زبان بیشتر برنامه هایی که در ابر رایانه ها پیاده می شود است. برای بهره گیری از موازی بودن ابر رایانه ها، در خوشه های با اتصال شل از PVMو MPIو در ماشین های با حافظه مشترک و هماهنگ از OpenMP استفاده می شود.
رایانه های خوشه ای با کابل کشی کوتاه برای پشتیبانی از تعداد زیادی پردازنده و برای این که حافظه آن ها بتواند با هم در ارتباط باشد از رابط های مخصوص استفاده می کنند. پردازنده ها و وسایل کابل کشی از ابتدا برای ابر رایانه ها طراحی می شوند. سریع ترین ابر رایانه‌های همه کاره دنیا از این فن آوری استفاده می کنند.
در سال ۲۰۰۲ قانون مور (Moore) و اقتصاد مقیاس عامل های غالب در طراحی ابر رایانه ها بود. در حال حاضر یک رایانه رو میزی جدید از یک ابر رایانه ۱۵ ساله قدرتمندتر است و دست کم برخی از ترفندهای طراحی که باعث می شد ابر رایانه های پیشین بهتر از
ماشین های رومیزی کنونی کار کنند درون یک commodity pc’sجا داده شده اند. از این گذشته هزینه توسعه و تولید تراشه ها باعث می شد تا طراحی تراشه های سنتی برای یک اجرای کوتاه غیر اقتصادی شود و تراشه های تولید انبوه که با داشتن تقاضاهای کافی از عهده هزینه تولید خود بر می آمدند جای آن ها را بگیرند.
ابر رایانه های تک منظوره ابزارهای محاسبه با کارایی بالا هستند که معماری آن ها برای یک کار خاص طراحی شده است. این باعث می شود بتوان از تراشه ها به طور خاص برنامه نویسی شده (FPGA) یا حتی از تراشه های VLSIسنتی استفاده و با نسبت کارایی با قیمت بالاتری تولید کرد. از این ابر رایانه ها برای برنامه های کاربردی مانند
محاسبه‌های فیزیک فضایی و کد شکنی brute-forceاستفاده می شود.
سرعت یک رایانه عموماً با فلاپ (عملیات های اعشاری در هر ثانیه) اندازه گیری می شود. این اندازه گیری هزینه سربار ارتباطات را نادیده گرفته و فرض می کند که تمامی پردازنده های ماشین به داده ها دسترسی و با تمامی سرعت کار می کنند. بنابراین یک استاندارد متری ایده‌ال نیست ولی به هر حال به طور گسترده مورد استفاده قرار می گیرد.
در ۲۹ سبتامبر سال ۲۰۰۴ سریع ترین ابر رایانه ها نمونه اولیه Blue GeneرLبا ۱۶٫۲۵۰پردازنده ساخت IBMبود. این ابر رایانه می‌تواند با سرعت ۰۱ر۳۶ ترا فلاپ کار کند. نمونه اولیه Blue GeneرL نسخه سفارشی شده معماری PowerPc شرکت ای بی ام (IBM) است. این نمونه اولیه فعلاً در Rochester شرکت ای بی ام، «نیویورک فاسیلیتی» است اما نسخه های تولید در سایت های مختلف از جمله آزمایشگاه ملی لارنس لیور مور (LLNL) فراهم خواهد شد. قبل از Blue Geneر Lسریع ترین ابر رایانه شبیه ساز زمین در مؤسسه علوم زمین یوکوماها ژاپن بود. این ابر رایانه کلاستری از ۶۴۰ رایانه هشت پردازنده ای متعارف و برداری مبتنی بر معماری NEC SX-6با مجموع ۵۱۲۰ پردازنده بود و از یکی از نسخه های سفارشی شده سیستم عامل یونیکس استفاده می شد.
پژوهش ها نشان می ‌دهد طراحی و ساخت تراشه‌ های سه بعدی رایانه‌ ای متکی به نانولوله‌ های می تواند به پردازش دست کم ۱۰۰۰ برابر سریع ‌تر از بهترین تراشه ‌های موجود در بازار بینجامد. طراحی سه بعدی این تراشه دانشمندان را قادر می ‌سازد که حافظه (مموری) را که داده ‌ها را ذخیره می ‌کند در یک فضای کوچک در کنار پردازنده‌های قدرتمند تعبیه کنند. کاهش فاصله بین این دو قطعه می‌‌تواند زمان پردازش را به شکل قابل توجهی پایین بیاورد.
پیشرفت قابل توجه رایانه‌ها در ۵۰ سال گذشته تا حد زیادی مدیون توانایی ساخت ترانزیستورهای سیلیکونی کوچک است که عملکردهای منطقی رایانه‌ ها را انجام می ‌دهند. بر اساس قانون مور، قانونی که نخستین بار توسط «گوردون ای‌ مور» پژوهشگر آمریکایی در سال ۱۹۶۵ ارائه شد، تعداد ترانزیستورها در یک تراشه سیلیکونی هر دو سال تقریباً دو برابر خواهد شد. مطابق پیش بینی این پزوهشگر ترانزیستورها روز به روز کوچک تر شده و به کوچک ترین بخش رایانه‌ ها که اندازه آن‌ها حتی پنج نانومتر شده تبدیل شده اند و سایز کاربردی ترین تراشه‌‌ها در حال حاضر فقط هفت نانومتر است. اما کاهش سایز به این معنی است که اثرات کوانتومی ذرات در این مقیاس می تواند عملکرد آن‌ها را مختل کند. بنابراین این احتمال وجود دارد که قانون مور تا ۱۰ سال آینده به پایان خودش برسد. بعلاوه کاهش سایز ترانزیستورها بیش از این ممکن است در سریع تر شدن رایانه ها تأثیری نداشته باشد. مانع اصلی سر راه سریع تر شدن رایانه‌ ها سرعت کم پردازنده نیست بلکه مشکل حافظه است.
*دانیال یونسی
*عکس ها از: computerworld.com

code

نسخه مناسب چاپ