Чип война 2.0: Технологията, която ще движи AI вълната
Най-неотложният проблем за производителите на чипове за изкуствен интелект е постоянно нарастващото търсене на повече изчислителна мощност

© ECONOMIC.BG / Deposit Photos
Някои от вас си спомнят дните, когато свалянето на филм означаваше чакане повече от час. Днес най-новите чипове могат да прехвърлят данни, еквивалентни на повече от 160 филма с пълна HD резолюция, за по-малко от една секунда.
Индустрията за производство на чипове за изкуствен интелект е започнала да оценява високоскоростната памет (HBM от high bandwidth memory) – технологията, която стои зад този светкавичен трансфер на данни. Когато за пръв път бе представена през 2013 г., анализаторите смятаха, че е малко вероятно тя да стане търговски приложима.
Но американските разработчици на чипове Nvidia и AMD вдъхват нов живот на усъвършенстваната технология, която вече се е превърнала в критичен компонент във всички AI чипове. Най-неотложният проблем за производителите на чипове за изкуствен интелект е постоянно нарастващото търсене на повече изчислителна мощност и изисквания за широчина на честотната лента, тъй като компаниите бързат да разширят центровете за данни и да разработят AI системи, като например големи езикови модели.
В същото време генеративните приложения за AI с голям обем на данните надхвърлят границите на производителността, която могат да предложат конвенционалните чипове с памет. По-високите скорости на обработка на данни и скорост на трансфер изискват по-голям брой чипове, които заемат повече физическо пространство и консумират повече енергия.
Досега традиционната конфигурация се състоеше в поставянето на чипове един до друг върху плоска повърхност, които след това се свързваха с кабели и предпазители. Повече чипове означават по-бавна комуникация между тях и по-висока консумация на енергия.
HBM преобръща десетилетна на традиция в производството на чипове, като подрежда няколко слоя чипове един върху друг и използва най-съвременни компоненти, включително малка платка, по-тънка от лист хартия, за да подреди чиповете много по-близо един до друг в триизмерна форма.
Това подобрение е от решаващо значение за производителите на чипове за изкуствен интелект, тъй като близостта между чиповете черпи по-малко енергия – HBM използва около три четвърти по-малко от традиционните структури. Проучванията показват също, че HBM осигурява и до пет пъти по-голяма пропускателна способност и заема по-малко място – по-малко от половината от размера на сегашните предложения.
Въпреки че технологията е усъвършенствана, тя не е нова. AMD и южнокорейският производител на чипове SK Hynix започнаха да работят по HBM преди 15 години, когато високопроизводителните чипове се използваха предимно в сектора на игрите.
Критиците по онова време бяха скептични, че повишаването на производителността ще си заслужава допълнителните разходи. HBM използва повече компоненти, много от които са сложни и трудни за производство, в сравнение с традиционните чипове. До 2015 г., две години след пускането на пазара, анализаторите очакваха HBM да се превърне в малка ниша. Разходите изглеждаха твърде високи за масова употреба на пазара.
Те са скъпи и днес, като струват поне пет пъти повече от стандартните памет чипове. Разликата сега е, че чиповете с изкуствен интелект, в които се влагат, също са на висока цена. А технологичните гиганти вече разполагат с много по-голям бюджет, за да харчат за усъвършенствани чипове, отколкото геймърите преди десетилетие.
Засега само една компания, SK Hynix, е в състояние да произвежда масово продукти от последно поколение HBM3, които се използват в днешните чипове за изкуствен интелект. Според данни на консултантската компания TrendForce тя притежава 50% от световния пазар, докато останалата част от пазара се държи от двама конкуренти. Samsung и Micron произвеждат HBM от по-старо поколение и са готови да пуснат най-новите си версии през следващите месеци. Те могат да спечелят неочаквани приходи от продукта с висок марж, както и от бързо нарастващото търсене. През юни TrendForce прогнозира, че глобалното търсене на HBM ще нарасне с 60% през тази година.
Войната на чиповете с изкуствен интелект е напът да ускори този ръст още повече през следващата година. AMD току-що пусна нов продукт с надеждата да се опълчи на Nvidia. Недостигът в световен мащаб, съчетан със силното търсене на по-достъпна алтернатива на предложенията на Nvidia, означава доходоносна възможност за съперниците, които могат да предложат чипове със сравними спецификации. Но да се разклати господстващото положение на Nvidia, което се крие не само във физическия чип, но и в неговата софтуерна екосистема, включваща популярни инструменти за разработчици и модели за програмиране, е друга история. Възпроизвеждането ѝ ще отнеме години.
Ето защо хардуерът – и броят на HBM, вградени във всеки нов чип – сега ще придобие още по-голямо значение за претендентите, които искат да се борят с Nvidia. Увеличаването на капацитета на паметта чрез използване на подобрени HBM е един от малкото начини за постигане на конкурентоспособност в краткосрочен план. Например най-новият ускорител MI300 на AMD използва осем HBM, което е повече от петте или шестте в продуктите на Nvidia.
Чиповете в миналото са били циклична индустрия, склонна към драматични възходи и падения. При сегашния си ход трайното нарастване на търсенето на нови продукти би трябвало да направи бъдещите спадове по-малко бурни, отколкото в миналото.