پایداری به طور قابل توجهی در مرکز تغییراتی قرار دارد که بسیاری از تأمینکنندگان کلیدی فناوری در رویکرد خود برای توسعه زیرساختهای مراکز داده جهت پردازشهای هوش مصنوعی ایجاد کردهاند. این شرکتها اکنون بیش از هر زمان دیگری تلاش میکنند تا زیرساختهای مورد نیاز برای محاسبات هوش مصنوعی را با تمرکز بر کاهش مصرف انرژی و منابع بهطور پایدار طراحی و توسعه دهند، تا تأثیرات زیستمحیطی این فناوریهای پیشرفته به حداقل برسد.
با شتاب گرفتن رشد فناوریهای هوش مصنوعی، شاهد تغییرات عظیمی در پیکربندی زیرساختهای مراکز داده هستیم. سازمانها در حال گسترش ظرفیتهای خود برای پاسخگویی به نیازهای روزافزون محاسباتی برنامهها و خدمات مبتنی بر هوش مصنوعی هستند.
با ظهور مدلهای پیچیده یادگیری ماشین، مراکز داده باید اطمینان حاصل کنند که زیرساختهایشان قادر به مدیریت محاسبات با عملکرد بالا (HPC)، پردازشهای فشرده هوش مصنوعی و نیازهای ذخیرهسازی و پردازشی ذاتی این فناوریها باشد.
به همین دلیل، اعلامیههای اخیر از شرکتهایی مانند Singtel، Hitachi، Intel، Oracle و بسیاری دیگر، بر این موضوع تمرکز دارند که چگونه این شرکتها در حال ارتقاء زیرساختهای خود از طریق سرمایهگذاری در آیندهنگری مراکز داده هستند. این اقدام شامل استفاده از منابع پیشرفته و معماریهایی است که برای توسعه و استقرار هوش مصنوعی ضروری میباشند.
افزایش چشمگیر تقاضا برای شتابدهندههای هوش مصنوعی و پردازندههای گرافیکی (GPU)
بر اساس گزارشی که گروه Dell’Oro در اوایل سپتامبر 2024 منتشر کرد، تقاضا برای زیرساختهای پیشرفته هوش مصنوعی باعث شد که هزینههای مربوط به شتابدهندهها و GPUها در سهماهه دوم سال به 54 میلیارد دلار برسد.
به گفته بارون فانگ، مدیر ارشد تحقیقات در گروه Dell’Oro:
“درآمدهای حاصل از قطعات سرور و سیستمهای ذخیرهسازی در سهماهه دوم 2024 نسبت به سال قبل 127 درصد افزایش یافت و به بالاترین سطح خود رسید. این رشد بهواسطه شتابدهندهها، مانند GPUها و شتابدهندههای سفارشی، HBMها و آداپتورهای اترنت برای کاربردهای هوش مصنوعی مولد رخ داده است.”
فانگ همچنین اشاره کرد که قطعات حافظه و درایوهای ذخیرهسازی برای بارهای کاری غیر هوش مصنوعی نیز به این رشد کمک کردند، چرا که قیمتها نسبت به پایینترین سطح سال گذشته افزایش یافته است.
او به افزایش همزمان هزینهها نیز اشاره کرد و خاطرنشان کرد که با پیشبینی افزایش تقاضا برای سرورها و سیستمهای ذخیرهسازی در اواخر سال جاری، تولیدکنندگان تجهیزات اصلی (OEM) و ارائهدهندگان خدمات ابری، موجودیهای خود را دوباره تأمین کردهاند.
نقش پایداری در مراکز داده آماده برای هوش مصنوعی
شاید بزرگترین چالشی که گسترش زیرساختهای هوش مصنوعی به همراه دارد، به مسئله پایداری مربوط باشد. تقاضای انرژی ناشی از بارهای کاری هوش مصنوعی، بهویژه آموزش مدلهای بزرگ، فشار زیادی را بر شرکتها وارد کرده تا بین عملکرد و فناوریهای سبز تعادل برقرار کنند.
برای مثال، Singtel و Hitachi در حال همکاری برای توسعه مراکز دادهای با بهرهوری بالاتر در مصرف انرژی هستند که از انرژیهای تجدیدپذیر استفاده میکنند و شامل فناوریهای خنککننده هوشمند هستند. در همین راستا، Intel، Oracle و Cerebras نیز در تلاش هستند تا سختافزارهایی بهینهسازی شده طراحی کنند که ضمن ارائه عملکرد بالا، مصرف انرژی بهینهای نیز داشته باشند.
شتابدهنده جدید هوش مصنوعی اینتل، با نام Gaudi 3، با هدف بهبود عملکرد نسبت به مصرف انرژی طراحی شده است، در حالی که پردازندههای گرافیکی با خنککننده مایع در سوپرکلاسترهای Oracle به کاهش گرمای ناشی از بارهای کاری هوش مصنوعی کمک میکنند. چنین پیشرفتهایی بخشی از یک تغییر زیرساختی بزرگتر در صنعت مراکز داده است که در آن بهرهوری و طراحی کمکربن اولویتهای اصلی به شمار میروند.
هوش مصنوعی به طور مداوم به سمت ساخت مراکز داده پایدارتر حرکت خواهد کرد – نه تنها از طریق استفاده از منابع انرژی سازگار با محیط زیست و سیستمهای خنککننده هوشمند، بلکه با اطمینان از دستیابی به همان سطح عملکرد با مصرف کمترین منابع ممکن.
به همین دلیل، ظهور فناوریهای جدید هوش مصنوعی تنها باعث افزایش اهمیت زیرساختهایی سبزتر، پاکتر و با بهرهوری بالاتر در مصرف انرژی خواهد شد.
زیرساخت ابری اوراکل: پیشگام ابررایانههای هوش مصنوعی
توسعه و نگهداری زیرساختهای هوش مصنوعی توسط اوراکل منجر به ساخت خوشههای ابرمحاسباتی در مقیاس زتا در این شرکت شده است. با استفاده از پلتفرم شتابدهنده هوش مصنوعی NVIDIA Blackwell، اکنون Oracle Cloud Infrastructure (OCI) یکی از بزرگترین ابررایانههای هوش مصنوعی در ابر است.
این زیرساخت دارای تا 131,072 پردازنده گرافیکی NVIDIA Blackwell و عملکردی تا سقف 2.4 زتافلاپ است. معماری ابری توزیعشده اوراکل، از بارهای کاری سنگین هوش مصنوعی در ابر پشتیبانی میکند و اکنون از طریق یک مدل انعطافپذیر توزیعشده به مشتریان این امکان را میدهد تا انتخاب کنند خدمات ابری و هوش مصنوعی خود را در کجا مستقر کنند.
خوشههای فوقالعاده OCI اوراکل، شبکهای با تأخیر بسیار پایین و فضای ذخیرهسازی HPC ارائه میدهند تا از اپلیکیشنهای هوش مصنوعی با بازدهی بالا پشتیبانی کنند. این منابع به مشتریان امکان دسترسی به قدرت محاسباتی در مقیاس پتا و اکسا را میدهند، که بهطور معمول تنها در مراکز ابررایانه بزرگ قابل دسترسی است.
به عنوان مثال، WideLabs اولین شرکتی است که از زیرساخت هوش مصنوعی اوراکل استفاده کرده و با OCI یکی از بزرگترین مدلهای زبان پرتغالی را آموزش داده است. Zoom نیز از قابلیتهای حاکمیتی OCI برای تقویت دستیار هوش مصنوعی شخصی خود، Zoom AI Companion، بهره میبرد. این موارد نشان میدهند که OCI میتواند از استقرارهای مقیاسپذیر، ایمن و مطابق با مقررات منطقهای اپلیکیشنهای هوش مصنوعی پشتیبانی کند، که برای هر سازمانی که با دادههای حساس کار میکند حیاتی است.
پردازندههای Xeon 6 و Gaudi 3 اینتل: قدرتبخش زیرساختهای هوش مصنوعی
اینتل نیز با عرضه پردازندههای Xeon 6 و شتابدهندههای هوش مصنوعی Gaudi 3 وارد فضای زیرساخت هوش مصنوعی شده است. این محصولات بهطور ویژه برای ارائه بهترین عملکرد در ازای هر وات مصرفی و کاهش کل هزینه مالکیت برای پیادهسازی هوش مصنوعی طراحی شدهاند. نیاز بالا به زیرساختهای هوش مصنوعی مقیاسپذیر با هزینه کمتر، بهویژه در محیطهای ابری در مقیاس بزرگ، اینتل را بر آن داشت تا این پردازندهها و شتابدهندههای جدید را توسعه دهد.
پردازنده Xeon 6 تعداد هستهها و شتابدهنده هوش مصنوعی را افزایش داده و پهنای باند حافظه را نسبت به نسخه قبلی Xeon دو برابر کرده است. این تراشه برای بارهای کاری عمومی در محیطهای لبهای، ابری و مراکز داده طراحی شده است. در مقابل، شتابدهنده Gaudi 3 اینتل برای بارهای کاری یادگیری عمیق طراحی شده است.
Gaudi 3 دارای 64 هسته پردازش تانسور و هشت موتور ضرب ماتریس است که برای استنتاج سریع شبکههای عصبی مناسب هستند. این شتابدهنده ویژگیهای متمرکزی برای آموزش و استنتاج دارد و از پهنای باند بالای حافظه و سازگاری با فریمورکهای محبوب مانند PyTorch پشتیبانی میکند.
در همین حال، استراتژی اکوسیستم باز اینتل، به شرکتهایی مانند Dell Technologies و Supermicro امکان میدهد تا سیستمهای خود را برای بارهای کاری هوش مصنوعی بهینه کنند.
اینتل همچنین مجموعه ابر هوش مصنوعی Tiber خود را برای پشتیبانی از ارائهدهندگان ابری در مقیاس بزرگ و اپراتورهای ابری گسترش داده است تا با چالشهای جدید در زمینه تحویل هوش مصنوعی، مانند دسترسی، مقیاسپذیری، هزینه و پیچیدگی مقابله کنند.
این اقدامات شامل فراهم کردن دسترسی به ابر توسعهدهنده Tiber اینتل برای ارزیابی فناوریهای هوش مصنوعی و ارائه خوشههای Gaudi 3 برای مقیاسگذاری به بارهای کاری بزرگ هوش مصنوعی است.
بهطور مشابه، تلاشهای مشترک مهندسی اینتل به شرکتها کمک کرده است تا سیستمهای هوش مصنوعی مولد را از نمونههای اولیه به سیستمهای آماده تولید تبدیل کنند. این امر به کاربران امکان میدهد تا چالشهای مربوط به نظارت در زمان واقعی، مدیریت خطا و مقیاسگذاری را برطرف کنند.
با استفاده از مشارکتهای اینتل، شرکتها میتوانند راهحلهای تولیدی RAG را عملی کنند که امکان پذیرش اپلیکیشنها و هوش مصنوعی در مقیاس وسیع را فراهم میآورد.
زیرساختهای هوش مصنوعی و رشد مراکز داده در منطقه آسیا-اقیانوسیه
منطقه آسیا-اقیانوسیه در آستانه رشد بازار مراکز داده قرار دارد، زیرا نیاز فزاینده به خدمات هوش مصنوعی و ابری باعث افزایش تقاضا برای ظرفیتهای محاسباتی شده است. بهعنوان مثال، ژاپن بهعنوان یکی از مناطق رشد مراکز داده در نظر گرفته میشود و طبق گزارش سالانه مرکز مالی ژاپن، نرخ رشد سالانه مرکب این کشور تا سال ۲۰۲۸ به ۹.۸ درصد میرسد.
مرکز داده Banyan Park II سینگتل پاسخی به نیاز کشور به زیرساختهای هوش مصنوعی آماده برای آینده بود که این شامل اجزای سفارشی شدهای بود که میتوانستند زلزلههای ژاپن را تحمل کنند. این مرکز نمونهای از همکاری سینگتل و هیتاچی است که با استراتژی سینگتل برای گسترش ظرفیت مراکز داده در سراسر منطقه همسو است.
با ترکیب ابر GPU و پلتفرمهای هماهنگسازی هوش مصنوعی مانند Paragon با زیرساختهای پایدار مراکز داده، منطقه آسیا-اقیانوسیه نقش مهمی در آینده هوش مصنوعی ایفا میکند. همکاری سینگتل و هیتاچی در این فضا موانع تکنولوژیکی و زیستمحیطی را برای گسترش مراکز داده مبتنی بر هوش مصنوعی ترکیب کرده و به رشد اقتصادی دیجیتال در این منطقه کمک میکند.
همکاری استراتژیک در مراکز داده آماده برای هوش مصنوعی
Singtel و Hitachi یک تفاهمنامه (MOU) امضا کردهاند تا از پذیرش هوش مصنوعی در منطقه آسیا-اقیانوسیه حمایت کنند، با تأکید ویژه بر ژاپن که در آن شرکا روی نوآوری مشترک در مراکز داده نسل آینده و راهکارهای ابری GPU تمرکز خواهند کرد.
این همکاری همچنین ممکن است در سراسر منطقه گستردهتر آسیا-اقیانوسیه گسترش یابد. تحت این تفاهمنامه، واحد کسبوکار Digital InfraCo شرکت Singtel با کنگلومرای ژاپنی Hitachi همکاری خواهد کرد تا چارچوب قویای برای یک ابتکار تحول دیجیتال با محوریت هوش مصنوعی شناسایی و تعریف کند.
این پروژه بر توسعه مراکز داده نسل آینده با استفاده از سیستمهای انرژی سبز، فناوریهای خنککننده، زیرساختهای ذخیرهسازی و سایر راهحلهای جامع مرکز داده Hitachi تمرکز خواهد کرد.
شرکای این پروژه قصد دارند با ترکیب تخصص Singtel در زمینه مراکز داده و اتصال و همچنین تواناییهای Hitachi در یکپارچهسازی راهحلهای جامع مرکز داده، به تسریع پذیرش هوش مصنوعی کمک کنند.
این همکاری بر اساس Singtel’s Paragon، یک راهکار هماهنگی است که 5G، محاسبات لبه و ابر را به هم پیوند میدهد، و همچنین برنامههای هوش مصنوعی Hitachi برای مشتریان تولیدی و سازمانی آن ساخته شده است. هدف این همکاری غلبه بر برخی از موانع پیادهسازی هوش مصنوعی است، از جمله مواردی مانند مقیاسپذیری، بهرهوری و پایداری.
این ابتکار بخشی از تلاش گستردهتری برای تجهیز مراکز داده به منظور رسیدگی به نیازهای منابعبر هوش مصنوعی و سایر خدمات محاسبات ابری است.
ژاپن، یکی از سریعترین بازارهای رشد مراکز داده در منطقه آسیا-اقیانوسیه است، جایی که واحد Digital InfraCo شرکت Singtel بخشی به نام Nxera راهاندازی کرده است تا مراکز داده سبز و فوقمتصل را بسازد که قادر به پشتیبانی از برنامههای هوش مصنوعی باشند. این واحد جدید قرار است اواخر امسال GPU-as-a-Service (GPUaaS) را راهاندازی کند تا به پذیرش هوش مصنوعی توسط شرکتها کمک کند.
تلاش Hitachi برای حفاظت از سیاره نیز تفکر آن در مورد این همکاری را شکل داده است. نیازهای انرژی هوش مصنوعی مولد به سرعت در حال افزایش است، به حدی که به شکلهای جدیدی از انرژی پاک نیاز خواهد بود تا این سیستمها پایدار باقی بمانند.
از طریق این سرمایهگذاری مشترک با Singtel، Hitachi امیدوار است که تخصص خود در زمینه انرژی سبز و مدیریت هوشمند داده را با عملیات مراکز داده Singtel ادغام کند تا مراکز داده هوشمند و با بهرهوری انرژی بیشتری ایجاد کند که با دو چالش اصلی هوش مصنوعی مقابله کند: نیاز به انرژی بیشتر و نیاز به محاسبات کارآمدتر.
نظرات درباره این مطلب
1 نظر
حسین –
عالی.ممنون