Czy Amazon ujawnił swój prawdziwy biznes?

W zeszłym tygodniu stało się coś, na co długo czekałam. Andy Jassy, CEO Amazona, po raz pierwszy w historii ujawnił konkretne liczby dotyczące tego, ile pieniędzy firmie przynosi sztuczna inteligencja. I ta liczba szczerze mnie zaskoczyła.

Ale najpierw trochę kontekstu, ponieważ jest on kluczowy do zrozumienia, dlaczego to ważna wiadomość.

Dlaczego to historyczny moment

Amazon Web Services, chmurowa dywizja Amazona, istnieje od 2006 roku. Przez dwie dekady AWS był czymś w rodzaju "cichego silnika" całej firmy — mniej efektownym niż Prime Video czy Alexa, ale generującym miażdżącą większość zysku operacyjnego, który finansował wszystko inne. Inwestorzy o tym wiedzieli, analitycy o tym wiedzieli, ale Amazon nigdy nie rozdzielał liczb tak precyzyjnie, by było jasne, gdzie dokładnie leży przyszłość.

Teraz Jassy zrobił to po raz pierwszy. I przekaz jest jasny: Amazon to nie firma e‑commerce. Amazon coraz bardziej staje się firmą infrastrukturalną dla ery cyfrowej, a AI to nowy rozdział tej historii.

15 miliardów z AI, 20 miliardów z chipów

Zacznijmy od faktu, co Jassy właściwie ujawnił.

AWS obecnie generuje roczne przychody przekraczające 142 miliardy dolarów. Z tego około 15 miliardów dolarów pochodzi bezpośrednio z usług AI — z tego, że firmy i deweloperzy korzystają z AWS do trenowania modeli, uruchamiania zadań inferencyjnych i budowania aplikacji AI. To stanowi około 10% całego "tortu" AWS. I ta liczba szybko rośnie. Sam Jassy przyznał, że biznes chmurowy rósłby jeszcze szybciej, gdyby nie ograniczenia pojemności, które dziś trapią cały przemysł technologiczny.

Jednak jeszcze ciekawsze niż przychody z AI jest drugie ujawnione przez Jassy liczba.

Własny biznes chipowy Amazona w ciągu ostatniego kwartału podwoił się z 10 do ponad 20 miliardów dolarów w zannualizowanych przychodach. Rocznie rośnie w trzycyfrowym tempie. Dla porównania: Nvidia, której GPU są teraz symbolem całej rewolucji AI, raportowała przychody z chipów na poziomie około 115 miliardów dolarów rocznie. Amazon jest więc na razie ułamkiem, ale dynamika jest zawrotna.

A potem padło zdanie, które od razu przykuło moją uwagę.

Strategiczny ruch, który zmienia grę

Jassy w liście do akcjonariuszy zasugerował coś, czego Amazon nigdy wcześniej nie robił — możliwość bezpośredniej sprzedaży własnych chipów zewnętrznym firmom. "Popyt na nasze chipy jest tak wysoki, że bardzo możliwe, iż w przyszłości będziemy sprzedawać całe racki stronom trzecim," powiedział szef Amazona.

Aby było jasne, co to oznacza dla inwestorów: Amazon dotychczas wykorzystywał swoje chipy wyłącznie wewnętrznie — albo w AWS dla własnych potrzeb, albo jako opcję dla klientów AWS. Otwarcie sprzedaży dla zewnętrznych graczy oznaczałoby wejście na segment rynku, którym dziś rządzi Nvidia, a częściowo także AMD.

Strategię poza AWS testuje zresztą także $GOOGL. Ten w październiku ubiegłego roku zawarł umowę z Anthropic na dostawy milionów własnych chipów AI. Dla Amazona byłby to analogiczny krok, tyle że na jeszcze większą skalę.

Jassy zilustrował to eksperymentem myślowym: gdyby biznes chipowy był odrębną firmą i sprzedawał chipy tak jak inni czołowi producenci chipów, roczne przychody wynosiłyby około 50 miliardów dolarów. To liczba, która wymaga uwagi każdego, kto posiada albo rozważa Amazon w swoim portfelu.

Trainium vs. $NVDA: Wojna cenowa, która dopiero się rozpoczyna

Aby zrozumieć, dlaczego dywizja chipowa Amazona jest strategicznie ważna, trzeba pojąć podstawowy problem całego przemysłu.

GPU od Nvidii są drogie. Trenowanie dużych modeli językowych kosztuje setki tysięcy do milionów dolarów, przy czym duża część tych kosztów przypada właśnie na sprzęt. Każdy, kto potrafi zaproponować alternatywę z lepszym stosunkiem ceny do wydajności, wchodzi do gry z ogromną dźwignią.

Amazon twierdzi, że jego chipy Trainium mają o 30–40% lepszy stosunek ceny do wydajności w porównaniu z konkurencyjnym sprzętem dostępnym przez AWS. Trainium 2 kosztuje około 40% mniej niż porównywalne GPU od Nvidii. Te liczby to nie tylko slogan marketingowy — potwierdzają to firmy takie jak Anthropic, Databricks czy Deutsche Telekom, które są wśród testerów chipów.

Sam Jassy w liście do akcjonariuszy stwierdził, że w pełnym wdrożeniu Trainium mógłby zaoszczędzić Amazonowi dziesiątki miliardów dolarów nakładów kapitałowych rocznie i dodać kilka punktów procentowych marży operacyjnej w porównaniu z zależnością od zewnętrznych dostawców chipów. To konkretny, mierzalny wynik.

200 miliardów na capex: Strach czy okazja?

Kiedy Amazon na początku roku ogłosił, że planuje w tym roku zainwestować około 200 miliardów dolarów w wydatki kapitałowe skoncentrowane głównie na infrastrukturze AI, reakcja rynku była mieszana. Część inwestorów zareagowała przerażeniem — to brutalna liczba nawet jak na standardy największej firmy technologicznej świata.

Jassy przeciwstawia temu sceptycyzmowi konkretne argumenty. Z planowanych wydatków AWS, które mają się "spieniężyć" w latach 2027 i 2028, Amazon już ma zobowiązania klientów na znaczną część. Wśród nich znajduje się także umowa z OpenAI przekraczająca 100 miliardów dolarów. Innymi słowy: Amazon nie buduje mocy na podstawie prognoz, lecz na podstawie realnych umów z klientami.

Logika rynkowa jest prosta: popyt na moc obliczeniową dla AI przewyższa podaż — i to znacznie. Dwaj duzi klienci AWS podobno poprosili o zakup całej dostępnej pojemności procesorów Graviton na cały rok 2026. Amazon musiał odmówić, bo inni klienci zostaliby bez obsługi.

To problem, który rozwiązuje się w jeden sposób — budować więcej.

Przemyślenia Vojty

Amazon jest jedną z moich największych pozycji, a to ujawnienie tylko potwierdziło, dlaczego dodałam go do portfela.

Tu nie ma żadnego "gdyby" — liczby są realne, zobowiązania klientów są realne, a dynamika biznesu chipowego szczerze mnie zaskoczyła bardziej niż same przychody z AI. Podwojenie z 10 do 20 miliardów w jednym kwartale i trzycyfrowy wzrost rok do roku — to nie zdarza się codziennie przy biznesie wartym 20 miliardów.

To, co mnie najbardziej zainteresowało, to jednak strategiczny ruch polegający na sprzedaży chipów zewnętrznym firmom. Amazon dotąd prezentował się jako platforma chmurowa. Jeśli rzeczywiście otworzy sprzedaż chipów poza AWS, wejdzie w bezpośrednią konkurencję z Nvidią i robi to z przewagą cenową 40%. To nie jest mały krok.

Oczywiście istnieją ryzyka. 200 miliardów capexu to ogromny zakład na to, że popyt na infrastrukturę AI będzie trwać. Jeśli bańka AI pęknie lub okaże się, że przychody z AI nie wystarczą na pokrycie kosztów budowy infrastruktury, Amazon to odczuje. Ale przy takich zobowiązaniach klientów, jakie opisuje Jassy, wierzę, że ryzyko jest dobrze skalibrowane.

Jestem byczo nastawiona wobec $AMZN, i te liczby wzmacniają moje przekonanie.

Amazon przekształca się z firmy e‑commerce i chmurowej w potęgę infrastruktury AI. Połączenie własnych chipów, gigantycznej platformy chmurowej i zobowiązań klientów na setki miliardów dolarów tworzy przewagę konkurencyjną, którą trudno będzie pokonać konkurentom w perspektywie kilku lat.

Czy wierzycie, że Amazon realnie zagrozi dominacji Nvidii na rynku chipów AI, czy pozostanie wyłącznie narzędziem wewnętrznym AWS? Gdzie widzicie największe ryzyko tego 200‑miliardowego zakładu?

Czy wierzycie w $AMZN i macie ich akcje w portfelu?

Udostępnij

Świetny artykuł, dzięki za niego. W $AMZN mam całkiem dużą pozycję w portfelu i wierzę w tę firmę na przyszłość.

Menu StockBot
Tracker
Upgrade