رقابت تأمین‌کنندگان اصلی فناوری برای تطبیق زیرساخت‌های هوش مصنوعی مراکز داده

هوش مصنوعی در مرکز داده

پایداری به طور قابل توجهی در مرکز تغییراتی قرار دارد که بسیاری از تأمین‌کنندگان کلیدی فناوری در رویکرد خود برای توسعه زیرساخت‌های مراکز داده جهت پردازش‌های هوش مصنوعی ایجاد کرده‌اند. این شرکت‌ها اکنون بیش از هر زمان دیگری تلاش می‌کنند تا زیرساخت‌های مورد نیاز برای محاسبات هوش مصنوعی را با تمرکز بر کاهش مصرف انرژی و منابع به‌طور پایدار طراحی و توسعه دهند، تا تأثیرات زیست‌محیطی این فناوری‌های پیشرفته به حداقل برسد.

با شتاب گرفتن رشد فناوری‌های هوش مصنوعی، شاهد تغییرات عظیمی در پیکربندی زیرساخت‌های مراکز داده هستیم. سازمان‌ها در حال گسترش ظرفیت‌های خود برای پاسخگویی به نیازهای روزافزون محاسباتی برنامه‌ها و خدمات مبتنی بر هوش مصنوعی هستند.

با ظهور مدل‌های پیچیده یادگیری ماشین، مراکز داده باید اطمینان حاصل کنند که زیرساخت‌هایشان قادر به مدیریت محاسبات با عملکرد بالا (HPC)، پردازش‌های فشرده هوش مصنوعی و نیازهای ذخیره‌سازی و پردازشی ذاتی این فناوری‌ها باشد.

به همین دلیل، اعلامیه‌های اخیر از شرکت‌هایی مانند Singtel، Hitachi، Intel، Oracle و بسیاری دیگر، بر این موضوع تمرکز دارند که چگونه این شرکت‌ها در حال ارتقاء زیرساخت‌های خود از طریق سرمایه‌گذاری در آینده‌نگری مراکز داده هستند. این اقدام شامل استفاده از منابع پیشرفته و معماری‌هایی است که برای توسعه و استقرار هوش مصنوعی ضروری می‌باشند.

 

افزایش چشمگیر تقاضا برای شتاب‌دهنده‌های هوش مصنوعی و پردازنده‌های گرافیکی (GPU)

بر اساس گزارشی که گروه Dell’Oro در اوایل سپتامبر 2024 منتشر کرد، تقاضا برای زیرساخت‌های پیشرفته هوش مصنوعی باعث شد که هزینه‌های مربوط به شتاب‌دهنده‌ها و GPU‌ها در سه‌ماهه دوم سال به 54 میلیارد دلار برسد.

به گفته بارون فانگ، مدیر ارشد تحقیقات در گروه Dell’Oro:

“درآمدهای حاصل از قطعات سرور و سیستم‌های ذخیره‌سازی در سه‌ماهه دوم 2024 نسبت به سال قبل 127 درصد افزایش یافت و به بالاترین سطح خود رسید. این رشد به‌واسطه شتاب‌دهنده‌ها، مانند GPUها و شتاب‌دهنده‌های سفارشی، HBMها و آداپتورهای اترنت برای کاربردهای هوش مصنوعی مولد رخ داده است.”

فانگ همچنین اشاره کرد که قطعات حافظه و درایوهای ذخیره‌سازی برای بارهای کاری غیر هوش مصنوعی نیز به این رشد کمک کردند، چرا که قیمت‌ها نسبت به پایین‌ترین سطح سال گذشته افزایش یافته است.

او به افزایش همزمان هزینه‌ها نیز اشاره کرد و خاطرنشان کرد که با پیش‌بینی افزایش تقاضا برای سرورها و سیستم‌های ذخیره‌سازی در اواخر سال جاری، تولیدکنندگان تجهیزات اصلی (OEM) و ارائه‌دهندگان خدمات ابری، موجودی‌های خود را دوباره تأمین کرده‌اند.

نقش پایداری در مراکز داده آماده برای هوش مصنوعی

شاید بزرگ‌ترین چالشی که گسترش زیرساخت‌های هوش مصنوعی به همراه دارد، به مسئله پایداری مربوط باشد. تقاضای انرژی ناشی از بارهای کاری هوش مصنوعی، به‌ویژه آموزش مدل‌های بزرگ، فشار زیادی را بر شرکت‌ها وارد کرده تا بین عملکرد و فناوری‌های سبز تعادل برقرار کنند.

برای مثال، Singtel و Hitachi در حال همکاری برای توسعه مراکز داده‌ای با بهره‌وری بالاتر در مصرف انرژی هستند که از انرژی‌های تجدیدپذیر استفاده می‌کنند و شامل فناوری‌های خنک‌کننده هوشمند هستند. در همین راستا، Intel، Oracle و Cerebras نیز در تلاش هستند تا سخت‌افزارهایی بهینه‌سازی شده طراحی کنند که ضمن ارائه عملکرد بالا، مصرف انرژی بهینه‌ای نیز داشته باشند.

شتاب‌دهنده جدید هوش مصنوعی اینتل، با نام Gaudi 3، با هدف بهبود عملکرد نسبت به مصرف انرژی طراحی شده است، در حالی که پردازنده‌های گرافیکی با خنک‌کننده مایع در سوپرکلاسترهای Oracle به کاهش گرمای ناشی از بارهای کاری هوش مصنوعی کمک می‌کنند. چنین پیشرفت‌هایی بخشی از یک تغییر زیرساختی بزرگ‌تر در صنعت مراکز داده است که در آن بهره‌وری و طراحی کم‌کربن اولویت‌های اصلی به شمار می‌روند.

هوش مصنوعی به طور مداوم به سمت ساخت مراکز داده پایدارتر حرکت خواهد کرد – نه تنها از طریق استفاده از منابع انرژی سازگار با محیط زیست و سیستم‌های خنک‌کننده هوشمند، بلکه با اطمینان از دستیابی به همان سطح عملکرد با مصرف کمترین منابع ممکن.

به همین دلیل، ظهور فناوری‌های جدید هوش مصنوعی تنها باعث افزایش اهمیت زیرساخت‌هایی سبزتر، پاک‌تر و با بهره‌وری بالاتر در مصرف انرژی خواهد شد.

زیرساخت ابری اوراکل: پیشگام ابررایانه‌های هوش مصنوعی

توسعه و نگهداری زیرساخت‌های هوش مصنوعی توسط اوراکل منجر به ساخت خوشه‌های ابرمحاسباتی در مقیاس زتا در این شرکت شده است. با استفاده از پلتفرم شتاب‌دهنده هوش مصنوعی NVIDIA Blackwell، اکنون Oracle Cloud Infrastructure (OCI) یکی از بزرگ‌ترین ابررایانه‌های هوش مصنوعی در ابر است.

این زیرساخت دارای تا 131,072 پردازنده گرافیکی NVIDIA Blackwell و عملکردی تا سقف 2.4 زتافلاپ است. معماری ابری توزیع‌شده اوراکل، از بارهای کاری سنگین هوش مصنوعی در ابر پشتیبانی می‌کند و اکنون از طریق یک مدل انعطاف‌پذیر توزیع‌شده به مشتریان این امکان را می‌دهد تا انتخاب کنند خدمات ابری و هوش مصنوعی خود را در کجا مستقر کنند.

خوشه‌های فوق‌العاده OCI اوراکل، شبکه‌ای با تأخیر بسیار پایین و فضای ذخیره‌سازی HPC ارائه می‌دهند تا از اپلیکیشن‌های هوش مصنوعی با بازدهی بالا پشتیبانی کنند. این منابع به مشتریان امکان دسترسی به قدرت محاسباتی در مقیاس پتا و اکسا را می‌دهند، که به‌طور معمول تنها در مراکز ابررایانه بزرگ قابل دسترسی است.

به عنوان مثال، WideLabs اولین شرکتی است که از زیرساخت هوش مصنوعی اوراکل استفاده کرده و با OCI یکی از بزرگ‌ترین مدل‌های زبان پرتغالی را آموزش داده است. Zoom نیز از قابلیت‌های حاکمیتی OCI برای تقویت دستیار هوش مصنوعی شخصی خود، Zoom AI Companion، بهره می‌برد. این موارد نشان می‌دهند که OCI می‌تواند از استقرارهای مقیاس‌پذیر، ایمن و مطابق با مقررات منطقه‌ای اپلیکیشن‌های هوش مصنوعی پشتیبانی کند، که برای هر سازمانی که با داده‌های حساس کار می‌کند حیاتی است.

پردازنده‌های Xeon 6 و Gaudi 3 اینتل: قدرت‌بخش زیرساخت‌های هوش مصنوعی

اینتل نیز با عرضه پردازنده‌های Xeon 6 و شتاب‌دهنده‌های هوش مصنوعی Gaudi 3 وارد فضای زیرساخت هوش مصنوعی شده است. این محصولات به‌طور ویژه برای ارائه بهترین عملکرد در ازای هر وات مصرفی و کاهش کل هزینه مالکیت برای پیاده‌سازی هوش مصنوعی طراحی شده‌اند. نیاز بالا به زیرساخت‌های هوش مصنوعی مقیاس‌پذیر با هزینه کمتر، به‌ویژه در محیط‌های ابری در مقیاس بزرگ، اینتل را بر آن داشت تا این پردازنده‌ها و شتاب‌دهنده‌های جدید را توسعه دهد.

پردازنده Xeon 6 تعداد هسته‌ها و شتاب‌دهنده هوش مصنوعی را افزایش داده و پهنای باند حافظه را نسبت به نسخه قبلی Xeon دو برابر کرده است. این تراشه برای بارهای کاری عمومی در محیط‌های لبه‌ای، ابری و مراکز داده طراحی شده است. در مقابل، شتاب‌دهنده Gaudi 3 اینتل برای بارهای کاری یادگیری عمیق طراحی شده است.

Gaudi 3 دارای 64 هسته پردازش تانسور و هشت موتور ضرب ماتریس است که برای استنتاج سریع شبکه‌های عصبی مناسب هستند. این شتاب‌دهنده ویژگی‌های متمرکزی برای آموزش و استنتاج دارد و از پهنای باند بالای حافظه و سازگاری با فریمورک‌های محبوب مانند PyTorch پشتیبانی می‌کند.

در همین حال، استراتژی اکوسیستم باز اینتل، به شرکت‌هایی مانند Dell Technologies و Supermicro امکان می‌دهد تا سیستم‌های خود را برای بارهای کاری هوش مصنوعی بهینه کنند.

اینتل همچنین مجموعه ابر هوش مصنوعی Tiber خود را برای پشتیبانی از ارائه‌دهندگان ابری در مقیاس بزرگ و اپراتورهای ابری گسترش داده است تا با چالش‌های جدید در زمینه تحویل هوش مصنوعی، مانند دسترسی، مقیاس‌پذیری، هزینه و پیچیدگی مقابله کنند.

این اقدامات شامل فراهم کردن دسترسی به ابر توسعه‌دهنده Tiber اینتل برای ارزیابی فناوری‌های هوش مصنوعی و ارائه خوشه‌های Gaudi 3 برای مقیاس‌گذاری به بارهای کاری بزرگ هوش مصنوعی است.

به‌طور مشابه، تلاش‌های مشترک مهندسی اینتل به شرکت‌ها کمک کرده است تا سیستم‌های هوش مصنوعی مولد را از نمونه‌های اولیه به سیستم‌های آماده تولید تبدیل کنند. این امر به کاربران امکان می‌دهد تا چالش‌های مربوط به نظارت در زمان واقعی، مدیریت خطا و مقیاس‌گذاری را برطرف کنند.

با استفاده از مشارکت‌های اینتل، شرکت‌ها می‌توانند راه‌حل‌های تولیدی RAG را عملی کنند که امکان پذیرش اپلیکیشن‌ها و هوش مصنوعی در مقیاس وسیع را فراهم می‌آورد.

زیرساخت‌های هوش مصنوعی و رشد مراکز داده در منطقه آسیا-اقیانوسیه

منطقه آسیا-اقیانوسیه در آستانه رشد بازار مراکز داده قرار دارد، زیرا نیاز فزاینده به خدمات هوش مصنوعی و ابری باعث افزایش تقاضا برای ظرفیت‌های محاسباتی شده است. به‌عنوان مثال، ژاپن به‌عنوان یکی از مناطق رشد مراکز داده در نظر گرفته می‌شود و طبق گزارش سالانه مرکز مالی ژاپن، نرخ رشد سالانه مرکب این کشور تا سال ۲۰۲۸ به ۹.۸ درصد می‌رسد.

مرکز داده Banyan Park II سینگتل پاسخی به نیاز کشور به زیرساخت‌های هوش مصنوعی آماده برای آینده بود که این شامل اجزای سفارشی شده‌ای بود که می‌توانستند زلزله‌های ژاپن را تحمل کنند. این مرکز نمونه‌ای از همکاری سینگتل و هیتاچی است که با استراتژی سینگتل برای گسترش ظرفیت مراکز داده در سراسر منطقه همسو است.
با ترکیب ابر GPU و پلتفرم‌های هماهنگ‌سازی هوش مصنوعی مانند Paragon با زیرساخت‌های پایدار مراکز داده، منطقه آسیا-اقیانوسیه نقش مهمی در آینده هوش مصنوعی ایفا می‌کند. همکاری سینگتل و هیتاچی در این فضا موانع تکنولوژیکی و زیست‌محیطی را برای گسترش مراکز داده مبتنی بر هوش مصنوعی ترکیب کرده و به رشد اقتصادی دیجیتال در این منطقه کمک می‌کند.

 همکاری استراتژیک در مراکز داده آماده برای هوش مصنوعی

Singtel و Hitachi یک تفاهم‌نامه (MOU) امضا کرده‌اند تا از پذیرش هوش مصنوعی در منطقه آسیا-اقیانوسیه حمایت کنند، با تأکید ویژه بر ژاپن که در آن شرکا روی نوآوری مشترک در مراکز داده نسل آینده و راهکارهای ابری GPU تمرکز خواهند کرد.

این همکاری همچنین ممکن است در سراسر منطقه گسترده‌تر آسیا-اقیانوسیه گسترش یابد. تحت این تفاهم‌نامه، واحد کسب‌وکار Digital InfraCo شرکت Singtel با کنگلومرای ژاپنی Hitachi همکاری خواهد کرد تا چارچوب قوی‌ای برای یک ابتکار تحول دیجیتال با محوریت هوش مصنوعی شناسایی و تعریف کند.

این پروژه بر توسعه مراکز داده نسل آینده با استفاده از سیستم‌های انرژی سبز، فناوری‌های خنک‌کننده، زیرساخت‌های ذخیره‌سازی و سایر راه‌حل‌های جامع مرکز داده Hitachi تمرکز خواهد کرد.

شرکای این پروژه قصد دارند با ترکیب تخصص Singtel در زمینه مراکز داده و اتصال و همچنین توانایی‌های Hitachi در یکپارچه‌سازی راه‌حل‌های جامع مرکز داده، به تسریع پذیرش هوش مصنوعی کمک کنند.

این همکاری بر اساس Singtel’s Paragon، یک راهکار هماهنگی است که 5G، محاسبات لبه و ابر را به هم پیوند می‌دهد، و همچنین برنامه‌های هوش مصنوعی Hitachi برای مشتریان تولیدی و سازمانی آن ساخته شده است. هدف این همکاری غلبه بر برخی از موانع پیاده‌سازی هوش مصنوعی است، از جمله مواردی مانند مقیاس‌پذیری، بهره‌وری و پایداری.

این ابتکار بخشی از تلاش گسترده‌تری برای تجهیز مراکز داده به منظور رسیدگی به نیازهای منابع‌بر هوش مصنوعی و سایر خدمات محاسبات ابری است.

ژاپن، یکی از سریع‌ترین بازارهای رشد مراکز داده در منطقه آسیا-اقیانوسیه است، جایی که واحد Digital InfraCo شرکت Singtel بخشی به نام Nxera راه‌اندازی کرده است تا مراکز داده سبز و فوق‌متصل را بسازد که قادر به پشتیبانی از برنامه‌های هوش مصنوعی باشند. این واحد جدید قرار است اواخر امسال GPU-as-a-Service (GPUaaS) را راه‌اندازی کند تا به پذیرش هوش مصنوعی توسط شرکت‌ها کمک کند.

تلاش Hitachi برای حفاظت از سیاره نیز تفکر آن در مورد این همکاری را شکل داده است. نیازهای انرژی هوش مصنوعی مولد به سرعت در حال افزایش است، به حدی که به شکل‌های جدیدی از انرژی پاک نیاز خواهد بود تا این سیستم‌ها پایدار باقی بمانند.

از طریق این سرمایه‌گذاری مشترک با Singtel، Hitachi امیدوار است که تخصص خود در زمینه انرژی سبز و مدیریت هوشمند داده را با عملیات مراکز داده Singtel ادغام کند تا مراکز داده هوشمند و با بهره‌وری انرژی بیشتری ایجاد کند که با دو چالش اصلی هوش مصنوعی مقابله کند: نیاز به انرژی بیشتر و نیاز به محاسبات کارآمدتر.