به گزارش ایسنا، در اقدامی که میتواند آینده عملکرد هوش مصنوعی مراکز داده را تغییر دهد، شرکت «کوالکام» از راهحلهای نسل جدید خود برای بهینهسازی استنتاج رونمایی کرده است که کارتها و رَکهای شتابدهنده AI200 و AI250 نام دارند.
به نقل از آیای، این سیستمها جهشی قابل توجه در تلاش «کوالکام» برای ارائه هوش مصنوعی مولد مقیاسپذیر، کممصرف و با کارایی بالا به شرکتهای جهانی هستند.
این مجموعه جدید که بر پایه رهبری فناوری واحد پردازش عصبی(NPU) «کوالکام» ساخته شده است، نوید عملکرد در مقیاس رَک با ظرفیت حافظه برتر را میدهد.
«کوالکام» میگوید هدفش واضح است؛ ارائه استنتاج هوش مصنوعی مولد سریع و مقرونبهصرفه در عین به حداکثر رساندن عملکرد به ازای هر دلار در هر وات که یک معیار حیاتی در زیرساختهای هوش مصنوعی مدرن است.
تقویت هوش مصنوعی مولد در مقیاس بزرگ
در قلب این اعلامیه، تراشه AI200 قرار دارد که یک راهکار استنتاج هوش مصنوعی است که به طور اختصاصی برای مدلهای زبان بزرگ و حجم کاری مدلهای چندوجهی بهینه شده است.
هر کارت AI200 از 768 گیگابایت حافظه LPDDR پشتیبانی میکند که امکان مقیاسپذیری و انعطافپذیری بالا را برای مدیریت تقاضاهای عظیم استنتاج هوش مصنوعی فراهم میکند.
«کوالکام» با ارائه هزینه کلی پایینتر قصد دارد استقرار مدلهای هوش مصنوعی مولد را برای مراکز دادهای که به دنبال کارایی بدون افت هستند، در دسترستر کند.
تراشه AI250 این جاهطلبی را فراتر میبرد. این محصول با یک معماری محاسباتی نزدیک به حافظه جدید عرضه میشود که به گفته «کوالکام»، بیش از 10 برابر پهنای باند حافظه مؤثر بیشتر و مصرف برق به شدت کاهشیافته را ارائه میدهد.
این نوآوری امکان استنتاج هوش مصنوعی تفکیکشده را فراهم میکند و به سختافزار اجازه میدهد تا با کارایی بیشتری مورد استفاده قرار گیرد و در عین حال الزامات عملکرد و هزینه مورد نیاز را برآورده کند.
هر دو راهکار با خنککننده مایع مستقیم برای راندمان حرارتی طراحی شدهاند و از PCIe برای افزایش مقیاس و اترنت برای افزایش مقیاس بهره میبرند.
این کارتها با مصرف برق ۱۶۰ کیلووات در سطح رَک، نشاندهنده قصد «کوالکام» برای ارائه عملکرد در سطح فوق مقیاسپذیر با تمرکز بر پایداری و بهینهسازی عملیاتی هستند.
ساخته شده برای ادغام یکپارچه
دورگا مالادی(Durga Malladi)، معاون ارشد و مدیر کل برنامهریزی فناوری، راهکارها و مرکز داده «کوالکام» میگوید: ما با AI200 و AI250 در حال تعریف مجدد آنچه برای استنتاج هوش مصنوعی در سطح رَک ممکن است، هستیم. این راهکارهای نوآورانه و جدید زیرساخت هوش مصنوعی، مشتریان را قادر میکند تا هوش مصنوعی مولد را با هزینه مالکیت(TCO) بیسابقهای مستقر کنند، در حالی که انعطافپذیری و امنیت مورد نیاز مراکز داده مدرن را حفظ میکنند.
وی افزود که پشته نرمافزاری غنی «کوالکام» و پشتیبانی از اکوسیستم باز، ادغام، مدیریت و مقیاسبندی مدلهای هوش مصنوعی از قبل آموزشدیده را برای توسعهدهندگان و شرکتها آسانتر میکند.
این پلتفرم از چارچوبهای پیشروی هوش مصنوعی و استقرار مدل با یک کلیک پشتیبانی میکند و «پذیرش بدون اصطکاک و نوآوری سریع» را امکانپذیر میسازد.
پشته هوش مصنوعی سراسری
پشته نرمافزار هوش مصنوعی در سطح فوق مقیاسپذیر این شرکت، سختافزار را پشتیبانی میکند و پشتیبانی سرتاسری را از لایههای نرمافزاری برنامه تا سیستم ارائه میدهد.
این سیستم برای استنتاج در چارچوبهای اصلی یادگیری ماشین، پلتفرمهای هوش مصنوعی مولد و موتورهای استنتاج بهینه شده است.
توسعهدهندگان میتوانند این مدلها را از طریق «کتابخانه مبدلهای کارآمد کوالکام» و مجموعه استنتاج هوش مصنوعی، به طور یکپارچه روی سیستم خود نصب کنند؛ ابزارهایی که برای عملیاتی کردن هوش مصنوعی از طریق برنامههای آماده، عاملها و APIها طراحی شدهاند.
«کوالکام» انتظار دارد AI200 در سال 2026 و پس از آن AI250 در سال 2027 به صورت تجاری در دسترس قرار گیرد. این شرکت اعلام کرد که قصد دارد روند سالانه بهروزرسانی محصولات مرکز داده را با تمرکز بر عملکرد، بهرهوری انرژی و نوآوری مداوم در استنتاج هوش مصنوعی حفظ کند.
این عرضه، «کوالکام» را مستقیماً در رقابت سختافزارهای هوش مصنوعی که به سرعت در حال تکامل هستند، قرار میدهد و نشان میدهد که این شرکت قصد دارد به عنوان یک نیروی پیشرو در دوران زیرساختهای هوش مصنوعی مولد باشد.
انتهای پیام


نظرات