Samsung rusza z produkcją pamięci HBM4 nowej generacji
Samsung rozpoczął masową produkcję chipów HBM4 dla sztucznej inteligencji, które mają odegrać kluczową rolę w rozwoju centrów danych AI.
Samsung ogłosił start masowej produkcji swoich najnowszych układów HBM4, określając je jako „wiodące w branży” i potwierdzając, że pierwsze komercyjne partie trafiły już do klientów. Firma podkreśla, że jest to pierwsze takie wdrożenie na rynku, co ma dać jej wczesną przewagę w segmencie pamięci wysokoprzepustowej dla AI. HBM4 to szósta generacja pamięci HBM, zaprojektowana specjalnie pod obciążenia związane ze sztuczną inteligencją. Dzięki szerszej magistrali (2 048 linii I/O) i wyższym szybkościom transferu jest w stanie dostarczyć nawet dwukrotnie większą przepustowość niż HBM3E przy podobnych częstotliwościach. Zgodnie z danymi Samsunga, nowe układy przekraczają obowiązujące w branży standardy szybkości przetwarzania o ponad 40%, co ma odpowiadać rosnącym wymaganiom modeli generatywnej AI i serwerów akceleratorowych.
HBM4 jest bezpośrednio powiązana z boomem na akceleratory AI Nvidii. Rynek oczekuje, że to właśnie Nvidia będzie jednym z głównych odbiorców nowych kości Samsunga. SK Hynix, dotychczasowy lider w HBM3/HBM3E, według analiz ma utrzymać dominujący udział w dostawach HBM4 do platformy Rubin Nvidii, który oscyluje w okolicach 70% wolumenu, natomiast Samsung zabezpieczył około 20–30% pierwszych zamówień. To istotna zmiana, ponieważ przy HBM3E Samsung pozostawał wyraźnie w tyle za SK Hynix, co było szeroko komentowane przez analityków rynku półprzewodników. Teraz, dzięki wcześniejszemu przygotowaniu linii produkcyjnych i przejściu testów kwalifikacyjnych Nvidii, Samsung pozycjonuje się jako pretendent do odzyskania znaczącej części rynku pamięci AI.
.Informacja o starcie masowej produkcji HBM4 natychmiast przełożyła się na rynek. Kurs akcji Samsung Electronics wzrósł o ponad 6% w trakcie sesji na giełdzie w Seulu. Firma już wcześniej raportowała rekordowe kwartalne zyski napędzane popytem na pamięci do AI i zapowiedziała wielomiliardowe inwestycje w rozbudowę fabryk oraz przejście na bardziej zaawansowane procesy produkcyjne. Według prognoz TrendForce, przyspieszenie budowy centrów danych AI sprawi, że przychody całej branży pamięci półprzewodnikowych mogą sięgnąć ponad 840 mld dolarów w 2027 roku, a HBM4 i HBM4E będzie jednym z głównych motorów tego wzrostu.
Dla konsumentów może to mieć również uboczny skutek. Producenci ostrzegają, że skupienie się fabryk na lukratywnych zamówieniach do AI może podnieść ceny pamięci w laptopach, smartfonach i kartach graficznych dla zwykłych użytkowników, co widać już w pamięciach DDR5, które wzrosły w cenie od kilkudziesięciu do kilkuset procent w zależności od modelu.
Rząd Korei Południowej deklaruje ambicję wejścia do ścisłej globalnej czołówki obok USA i Chin, a pamięci HBM są jednym z filarów tej strategii. Samsung i SK Hynix kontrolują ok. 90% światowej produkcji HBM, co czyni z pamięci strategiczny „surowiec” dla infrastruktury AI, porównywany przez analityków do ropy naftowej epoki cyfrowej. Samsung inwestuje równolegle w rozwój jeszcze szybszych wariantów, takich jak HBM4E, które według szacunków mogą zapewnić nawet 2,5‑krotny wzrost przepustowości względem HBM3E, przy lepszej efektywności energetycznej na bit. W połączeniu z planowanym uruchomieniem procesów 2 nm oraz rosnącym popytem ze strony Nvidii, Google i innych graczy AI, koreański koncern umacnia swoją pozycję jednego z kluczowych beneficjentów globalnej „gorączki AI”.
Szymon Ślubowski
