Amazon ujawnia skalę własnych chipów AI: ponad 20 mld dol. przychodu i potencjał na 50 mld dol. rocznie

Amazon odsłania kolejny fragment swojej układanki AI, o którym do tej pory mówił niewiele. W liście do akcjonariuszy z kwietnia 2026 r. prezes Andy Jassy poinformował, że wewnętrzna dywizja półprzewodników – projektująca procesory Graviton, akceleratory AI Trainium oraz układy sieciowe Nitro dla AWS – generuje już ponad 20 mld dol. przychodów w ujęciu rocznym, rosnąc w tempie trzycyfrowym, a jako samodzielny biznes mogłaby docelowo osiągnąć skalę około 50 mld dol. rocznie. Do tej pory te chipy były dostępne głównie jako usługa w ramach instancji AWS, jednak Jassy zasugerował, że Amazon rozważa sprzedaż całych racków serwerowych z własnymi układami także klientom spoza chmury – co uczyniłoby z AWS nie tylko dostawcę usług, ale również bezpośredniego sprzedawcę infrastruktury obliczeniowej dla AI.

Równocześnie spółka po raz pierwszy podaje konkretne liczby dotyczące przychodów z AI w AWS. Według Jassego, usługi AI w chmurze osiągnęły w pierwszym kwartale 2026 r. run‑rate przekraczający 15 mld dol. rocznie, podczas gdy całe AWS działa obecnie na poziomie około 142 mld dol. przychodów w skali roku po ponownym przyspieszeniu wzrostu pod koniec 2025 r. Aby obsłużyć ten popyt, Amazon planuje rekordowe nakłady inwestycyjne rzędu 200 mld dol. w 2026 r., głównie na infrastrukturę AI, przy czym Jassy podkreśla, że nie jest to ślepy zakład: firma wskazuje na rosnący backlog AWS i długoterminowe zobowiązania klientów, które pokrywają znaczną część tego budżetu, w tym kontrakty na moc obliczeniową szacowane na ponad 100 mld dol. z OpenAI i innymi kluczowymi graczami AI.

Dział chipów Amazona: 20 miliardów dziś, 50 miliardów potencjału

Według listu Jassy' ego, dział chipów Amazona osiąga roczny przychód w wysokości ponad 20 miliardów $AMZN, podwajając około 10 miliardów dolarów, o których firma informowała jeszcze w wynikach za czwarty kwartał ubiegłego roku. Dział ten obejmuje trzy kluczowe produkty: procesor Graviton do ogólnych zadań obliczeniowych, akceleratory Trainium AI do szkolenia i wnioskowania o modelach oraz karty sieciowe Nitro, które poprawiają wydajność i bezpieczeństwo serwerów AWS.

Jassy opisuje, że popyt na te chipy jest tak wysoki, że całkiem możliwe, że w przyszłości będą sprzedawać całe stojaki z chipami stronom trzecim. W liście dodaje, że gdyby dział chipów działał jako samodzielna firma sprzedająca półprzewodniki zarówno klientom AWS, jak i klientom zewnętrznym, jego roczny wskaźnik przychodów wyniósłby około 50 miliardów dolarów. To pośrednio stawia jednostkę chipową w lidze dużych graczy na rynku półprzewodników - a także sugeruje, że Amazon ma "ukryty" biznes wewnątrz firmy o parametrach innego megakapitału.

Obecnie dział ten istnieje wyłącznie wewnątrz AWS: klienci uzyskują dostęp zarówno do Traini, jak i Graviton za pośrednictwem instancji EC2, a nie poprzez bezpośredni zakup chipów. Otwarcie sprzedaży bezpośredniej sprawiłoby, że Amazon stałby się hybrydą między dostawcą chmury a dostawcą sprzętu AI, podobnie jak robi to Google z TPU za pośrednictwem Google Cloud, ale z potencjalnie szerszym zasięgiem w kierunku instalacji lokalnych przez dużych klientów.

Trainium3 wyprzedane, Trainium4 zarezerwowane. AWS AI za 15 miliardów rocznie

Kluczowym motorem wzrostu w dziale chipów jest generacja Trainium. W grudniu 2025 r. AWS ogłosił dostępność serwerów Trainium3 UltraServers, które zapewniają do 4,4x wyższą wydajność obliczeniową, czterokrotnie wyższą efektywność energetyczną i prawie czterokrotnie większą przepustowość pamięci w porównaniu z konfiguracjami opartymi na Trainium2. Trainium3 może skalować do 144 chipów w jednym systemie, z wydajnością do 362 FP8 PFLOPs, umożliwiając szybsze i tańsze trenowanie większych modeli.

Według Jassy'ego, Trainium3 jest prawie całkowicie wyprzedany, a klienci, którzy przenieśli na niego swoje zadania AI, w tym Uber $UBER. Znaczna część następnej generacji Trainium4, która jest około 18 miesięcy od szerokiej dostępności, jest już zarezerwowana przez kluczowych klientów AWS. Ta przedsprzedaż pokazuje zarówno nadpodaż wysokiej klasy akceleratorów AI na całym świecie, jak i zaufanie dużych klientów do mapy drogowej Amazon.

Jednocześnie Amazon po raz pierwszy opublikował bezpośrednią liczbę dotyczącą działalności AWS w zakresie sztucznej inteligencji: usługi AI osiągnęły roczny wskaźnik przychodów w wysokości ponad 15 miliardów dolarów w pierwszym kwartale 2026 roku i "szybko rosną". Dla porównania, całkowite przychody AWS wyniosły około 128,7 mld USD w 2025 r., a oczekuje się, że dział chmury osiągnie w tym roku około 142 mld USD. Jassy zauważa, że wzrost AWS byłby jeszcze bardziej agresywny, gdyby cała branża nie napotkała ograniczeń przepustowości infrastruktury.

Jakmówi, dwóch dużych klientów poprosiło nawet o opcję zakupu całej dostępnej pojemności chipów Graviton na 2026 r., której Amazon odmówił, aby zachować pojemność procesora dla innych użytkowników. To ponownie potwierdza, że popyt na własny krzem Amazona przekracza obecne moce produkcyjne - i zwiększa atrakcyjność potencjalnej bezpośredniej sprzedaży chipów.

Pojedynek z Nvidią na wartym 200 miliardów dolarów rynku chipów AI

Amazon wkracza w kolejną fazę konfliktu o sprzęt AI w momencie, gdy Nvidia $NVDA dominuje na rynku z około 85% udziałem w akceleratorach AI i 60-75% we wnioskowaniu dzięki połączeniu procesorów graficznych i ekosystemu oprogramowania CUDA. Szacuje się, że rynek chipów AI przekroczy 200 miliardów dolarów do 2026 roku, chociaż udział Nvidii może stopniowo spadać do około 75% ze względu na pojawienie się własnych układów hiperskalerów i konkurencję ze strony AMD.

AMD posiada około 7% udziału w szybko rozwijającym się rynku sztucznej inteligencji, a reszta pochodzi z zastrzeżonych chipów dużych graczy chmurowych, takich jak Google TPU, projekt Microsoftu "Maia/Mauri" i Amazon's Trainium. W swoim liście Jassy otwarcie mówi, że Amazon będzie nadal korzystał z chipów Nvidii, ale klienci "chcą lepszego stosunku ceny do wydajności", co jest dokładnie tym obszarem, w którym Trainium ma zapewnić przewagę.

Rozważając sprzedaż szaf bezpośrednio z własnymi chipami, Amazon wkracza - przynajmniej częściowo - na terytorium Nvidii i AMD. Różnica polega na tym, że Amazon może sprzedawać własny sprzęt "wspierany" przez chmurę AWS i oprogramowanie, dzięki czemu klienci otrzymują zarówno wydajność lokalną, jak i możliwość łatwej integracji z usługami w chmurze. Jeśli ten model się przyjmie, może on osłabić część działalności tradycyjnych producentów GPU, jednocześnie wzmacniając zależność dużych klientów bezpośrednio od hiperskalerów.

Nakłady inwestycyjne w wysokości 200 mld USD: "Nie inwestujemy na wyczucie"

Dużym pytaniem dla inwestorów jest to, w jaki sposób Amazon finansuje tak ekspansywną strategię AI. W liście Jassy przypomina, że firma planuje około 200 miliardów dolarów nakładów inwestycyjnych w 2026 roku, z czego zdecydowana większość jest przeznaczona na infrastrukturę AI - centra danych, produkcję chipów i możliwości sieciowe. Niektórzy na rynku byli przerażeni tymi kwotami, ale Jassy zapewnia, że Amazon "nie inwestuje na podstawie przeczucia" i że znaczna część tego capexu jest pokryta długoterminowymi zobowiązaniami klientów.

Według informacji, które wyciekły do mediów, zobowiązania te obejmują między innymi kontrakt o wartości ponad 100 miliardów dolarów z OpenAI na wykorzystanie AWS do szkolenia i uruchamiania modeli. Jednocześnie Jassy zasugerował wcześniej, że sztuczna inteligencja powinna pomóc AWS osiągnąć do 600 miliardów dolarów rocznych przychodów w dłuższej perspektywie, co stanowi około dwukrotność wcześniej ogłoszonego celu.

Liczby te pokazują, że Amazon postrzega infrastrukturę AI jako kolejną "warstwę szkieletową" swojej działalności po handlu elektronicznym, logistyce i tradycyjnej chmurze. W połączeniu z potencjałem działu chipów do stania się samodzielną firmą z roczną sprzedażą na poziomie 50 miliardów dolarów, jest to jedna z najbardziej ambitnych tez inwestycyjnych w ramach wielkiej piątki firm technologicznych.

Jak rynek reaguje na wizję AI Jassy'ego?

Po opublikowaniu listu do akcjonariuszy i nowego zestawu liczb dla działu AI i chipów, akcje Amazon wzrosły o około 1,5-3,5%, według różnych źródeł i czasów pomiaru. Inwestorzy szczególnie docenili przejrzystość liczby 20 miliardów dolarów dla działu chipów i 15 miliardów dolarów dla usług AI, co daje bardziej konkretny zarys "ukrytych" składników wyceny Amazona.

Jest to sygnał dla rynku, że Amazon nie tylko chce odgrywać rolę "dodatku infra" dla OpenAI i innych w dziedzinie sztucznej inteligencji, ale że potencjalnie ma kolejną dużą firmę półprzewodnikową i samodzielnego giganta chmury AI w tym samym czasie. To, jak szybko ta historia przełoży się na rzeczywiste zyski i marże, będzie zależeć od zdolności Amazona do dalszego zwiększania wykorzystania chipów Trainium i Graviton, otwierania sprzedaży bezpośredniej stronom trzecim, przy jednoczesnym zdyscyplinowanym zarządzaniu gigantycznym planem capex.

Udostępnij

Jeszcze brak komentarzy
Informacje w tym artykule mają jedynie charakter edukacyjny i nie służą jako porada inwestycyjna. Autorzy prezentują jedynie znane im fakty i nie wyciągają żadnych wniosków ani zaleceń dla czytelników. Przeczytaj nasze Warunki handlowe
Menu StockBot
Tracker
Upgrade