Micron wchodzi w kolejny etap boomu AI już nie jako „zwykły” producent DRAM, ale jako kluczowy dostawca pamięci dla Nvidii. Spółka ogłosiła, że jej stosy HBM4 o pojemności 36 GB (12 warstw) weszły w I kwartale 2026 r. do produkcji masowej i są dostarczane na platformę Vera Rubin, oferując prędkości pinów powyżej 11 Gb/s oraz przepustowość przekraczającą 2,8 TB/s na stack – ok. 2,3× więcej niż w przypadku HBM3E przy tej samej konfiguracji i z ponad 20‑procentową poprawą efektywności energetycznej. Taki skok parametrów jest krytyczny dla nowych modeli AI operujących na bardzo długich kontekstach i danych multimodalnych, gdzie przepustowość pamięci staje się równie ważna jak moc obliczeniowa samego GPU.

Co z perspektywy inwestorów może być jeszcze ważniejsze, to sposób, w jaki rynek wysysa tę podaż. Micron podkreśla, że cała jego produkcja HBM na rok kalendarzowy 2026 – w tym HBM4 – jest już w 100% zakontraktowana w ramach długoterminowych umów, a firma planuje wieloletni program inwestycji rzędu 200 mld dol., aby zwiększyć moce produkcyjne w USA i Azji. W praktyce oznacza to, że w nadchodzących kwartałach pamięć o bardzo wysokiej przepustowości może być realnym wąskim gardłem dla rozbudowy infrastruktury AI, a Micron z producenta z cyklicznego dołu staje się posiadaczem jednego z najbardziej pożądanych zasobów w całym łańcuchu wartości.
HBM4: 36 GB dziś, 48 GB jutro i 2,8 TB/s na stos
Pamięć HBM4 36 GB 12-Hi (12H) jest zbudowana w procesie 1-beta DRAM firmy Micron i wykorzystuje szerszą 2048-bitową magistralę, która umożliwia przepustowość większą niż 2,8 TB/s na stos przy szybkości pinów powyżej 11 Gb/s. W porównaniu do poprzedniej generacji HBM3E w tej samej konfiguracji 36 GB 12H, jest to około 2,3-krotny wzrost przepustowości i ponad 20% poprawa efektywności energetycznej według wewnętrznych wskaźników $MU firmy Micron.
Oprócz wariantu 36 GB, firma zademonstrowała również 16-warstwową wersję HBM4 48 GB 16H, którą już wysyła w formie próbek do wybranych klientów. Dodanie czterech warstw oznacza około 33% wzrost pojemności na "lokalizację" HBM w porównaniu do 36 GB 12H przy jednoczesnym utrzymaniu wysokiej przepustowości, co jest kluczowe dla akceleratorów, które chcą zmaksymalizować zarówno przestrzeń pamięci dla gigantycznych modeli, jak i szybkość dostępu do danych.
Jeśli chodzi o architekturę Vera Rubin, Micron podkreśla, że jest pierwszym producentem, który jednocześnie masowo produkuje trio kluczowych komponentów dla tej platformy: HBM4 36GB 12H, Micron 9650 PCIe Gen6 SSD i moduł SOCAMM2 192GB. Pozycjonuje to firmę jako "kompleksowego" partnera w zakresie pamięci i pamięci masowej dla następnej fali klastrów GPU.
Akcje Micron na rekordowych poziomach
Rynek przyjął wiadomość o HBM4 jako potwierdzenie, że Micron jest jednym z głównych strukturalnych zwycięzców cyklu AI. Po ogłoszeniu masowej produkcji HBM4 36 GB 12H dla Nvidii na GTC 2026, akcje podskoczyły i od tego czasu nadal rosną. We wtorek cena akcji osiągnęła poziom 465 USD.
Ale jeszcze ważniejsze niż krótkoterminowy ruch cenowy są perspektywy. Micron potwierdził, że cała produkcja HBM na cały rok kalendarzowy 2026 została już przedsprzedana w ramach długoterminowych kontraktów, co daje firmie bezprecedensową widoczność przychodów i marży. Komentarze analityków wskazują, że taka sprzedaż oznacza de facto zablokowanie działalności na 22 miesiące naprzód, w tym cen i wolumenów, i przenosi segment pamięci z tradycyjnie cyklicznej fazy do takiej, w której popyt na pamięci AI przewyższa podaż w perspektywie długoterminowej.
Według niektórych szacunków, Micron planuje zainwestować do około 200 miliardów dolarów w zwiększenie pojemności DRAM i HBM w ciągu najbliższych kilku lat, aby uchwycić długoterminowy popyt na infrastrukturę AI. Niektóre analizy sugerują, że przy w pełni sprzedanej pojemności HBM, marży brutto około 68% i EPS powyżej 8 USD w roku fiskalnym 2026, akcje mogą być nadal konserwatywnie wyceniane, biorąc pod uwagę ich profil wzrostu.
Ciężka walka: SK Hynix, Samsung i wyścig o HBM4
Micron nie jest jednak osamotniony w wyścigu o HBM4. SK Hynix w szczególności dominuje na rynku, za nim plasuje się Samsung $NVDA, a rynek HBM4 dla Nvidia $NVDA szybko zamienia się w zaciętą walkę o każdy wafel. Według UBS i południowokoreańskich mediów, SK Hynix może przejąć około 70% udziału w dostawach HBM4 dla platformy Rubin firmy NVIDIA do 2026 roku, a Micron i Samsung są mniejszymi, ale szybko rozwijającymi się graczami.
Dane Counterpoint Research dotyczące rynku HBM w trzecim kwartale 2025 r. pokazują, że SK Hynix posiada około 53-55% rynku, Samsung 27-35%, a Micron około 11%. Tymczasem Samsung ogłosił plany zwiększenia wydajności HBM o około 47-50% do końca 2026 r., do około 250 tys. wafli miesięcznie, w porównaniu z około 170 tys. obecnie, i podkreślił, że klienci chwalą konkurencyjność wydajności i energooszczędności jego chipów HBM4.
Według TweakTown i innych źródeł, Nvidia poprosiła wszystkich swoich kluczowych dostawców - SK Hynix, Samsung i Micron - o dostarczenie chipów 16-Hi HBM4 do czwartego kwartału 2026 r., a masowe dostawy 12-Hi HBM4 mają rozpocząć się na początku 2026 r. Wynik tej selekcji wpłynie na to, jak udziały HBM4 zostaną podzielone między trzy firmy w drugiej połowie dekady.
Co dalej?
Micron spogląda już poza horyzont HBM4. Firma zapowiedziała, że planuje wypróbować HBM4E w drugiej połowie 2026 roku, generację, która powinna jeszcze bardziej zwiększyć zarówno przepustowość, jak i wydajność energetyczną oraz podnieść standard akceleratorów GPU i AI. Równolegle, rozwój modułów 16-Hi HBM4 przyspiesza - na co wskazują wymagane dostawy próbek do końca 2026 roku - co zwiększy pojemność stosu powyżej obecnych 48 GB.
Oprócz HBM, Micron rozszerza również swoje portfolio dla infrastruktury AI:
Micron 9650 PCIe Gen6 SSD - pierwszy dysk SSD PCIe 6.0 dla centrów danych w produkcji seryjnej, z nawet dwukrotnie wyższą wydajnością odczytu sekwencyjnego w porównaniu do Gen5, o 100% lepszą wydajnością na wat i optymalizacją pod kątem obciążeń AI opartych na agentach w architekturze NVIDIA BlueField-4 STX.
192 GB SOCAMM2 - moduł pamięci serwerowej o niskim poborze mocy i wysokiej gęstości, zaprojektowany z myślą o wnioskowaniu sztucznej inteligencji i innych aplikacjach intensywnie przetwarzających dane.
To połączenie HBM4, wysokiej klasy dysków SSD i modułów serwerowych oznacza, że Micron profiluje się jako kluczowy dostawca nie tylko "surowej pamięci", ale całej warstwy pamięci i pamięci masowej centrów danych AI, od modułów GPU po pamięć masową.