top of page

Kompas Dnia: Megatrend AI (Sztuczna Inteligencja)-skala, modele i moc. Przewodnik inwestora cz.2.

Zaktualizowano: 2 sie

W pierwszym tekście z cyklu Megatrend AI – Megatrend AI (sztuczna inteligencja) - Hyperskalowe przyspieszenie AI. Przewodnik inwestora cz.1 – przyjrzeliśmy się megabudżetom Amazona, Microsoftu czy Google’a i temu, jak lawinowy CAPEX tych gigantów wywołuje falę inwestycji w centra danych, chipy i energię. Pokazaliśmy warstwę infrastruktury – fundament, bez którego rewolucja AI nie ruszy.

Dziś schodzimy o jeden poziom głębiej. Skoro wiemy już, kto stawia serwerownie i ile prądu one pochłoną, pora zrozumieć co dokładnie dzieje się na tych GPU-klastrach oraz jak rosnące „apetyty” modeli przekładają się na Twój portfel. W tym wpisie odsłaniam trzy kluczowe wymiary:

  1. Skala – tempo przyrostu parametrów i energii zużywanej przez AI przypomina wykładniczy wykres z podręcznika.

  2. Architektura – obok gigantycznych LLM-ów wyrastają zwinne Small Language Models, które mogą przewrócić stolik kosztów inferencji.

  3. Fizyka biznesu – większe modele to nie tylko więcej FLOPS-ów, lecz także nowa struktura wydatków na chłodzenie, pamięć i pasmo sieciowe.

W kolejnych akapitach pokażemy, jak te zmienne splatają się w realne szanse inwestycyjne – od producentów chipów, przez operatorów zielonej energii, po twórców wyspecjalizowanego oprogramowania. Jeśli poprzedni artykuł był mapą autostrad i mostów AI, ten jest przewodnikiem po tym, co przewożone jest po tych drogach – i kto na tym zarabia. Zapnij pasy...


1. Rynek, który rośnie wykładniczo

Globalne przychody z AI mają skoczyć z 96 mld USD (2021) do 1,85 bln USD w 2030 r., co oznacza ok.37 % CAGR.

Sztuczna inteligencja AI

Za boomem w oprogramowaniu idzie infrastruktura: zapotrzebowanie na moc centrów danych wzrośnie z ok. 200 TWh do ponad 600 TWh do 2040 r., przy czym sama AI odpowiada za 25 % rocznego tempa wzrostu.

Sztuczna inteligencja AI
Sztuczna inteligencja AI
Sztuczna inteligencja AI Chip

Wnioski dla inwestora: rosną wydatki hyperscalerów i funduszy infrastrukturalnych; beneficjentami są producenci chipów, systemów zasilania i operatorzy DC.


2. Modele coraz większe… i coraz mniejsze


Klasa

Przykłady

Parametry

Po co?

Frontier LLM

GPT-4o, Claude 3

1-1,8 bln+

Maksymalna jakość, ale wysokie koszty treningu/inferencji

SLM / Nimble

Llama 7B, Mistral 7B, Phi-2

0,8-13 mld

Lokalny deployment, niższe CAPEX/OPEX

Rozmiary flagowych modeli skoczyły >50× od 2020 r. do 2025 r.

Równolegle Microsoft, Meta i open-source promują SLM-y, które dorównują „gigantom” w logice czy matematyce przy ułamkowych wymaganiach sprzętowych.

Sztuczna inteligencja AI model

3. Wyzwanie energetyczne

Najnowszy układ Nvidia B200 pobiera >1,2 kW, dwa razy więcej niż poprzednik H100.

Racki 60-100 kW stają się normą, co wymusza przejście z chłodzenia powietrzem na direct-to-chip / immersion.

Sztuczna inteligencja AI

Implikacje rynkowe: rośnie popyt na UPS-y, transformatory i cieczy chłodzące, a także na zieloną energię i projekty SMR.


4. Trening vs Inferencja – inna fizyka, inny biznes

Etap

Opis

Moc obliczeniowa

Pojemność pamięci

Przepustowość pamięci

Wrażliwość na opóźnienia sieci

Przepustowość sieci

Trening LLM

Modele uczą się na ogromnych zbiorach danych, przetwarzając biliony parametrów rozproszonych na tysiącach GPU. Proces jest ekstremalnie obciążający obliczeniowo i wymaga dużej przepustowości sieci.

Wysoka

Średnia

Średnia

Średnia

Wysoka

Inferencja LLM – faza prefill

Po wytrenowaniu modelu, podczas zapytania („promptu”) najpierw równolegle przetwarzane są tokeny wejściowe. Prefill jest bardzo wymagający obliczeniowo i pamięciowo (do 10 PFLOPS, aby uzyskać pierwszy token).

Wysoka

Średnia → Wysoka

Niska

Niska

Niska

Inferencja LLM – faza decode

Model generuje tekst token po tokenie w trybie autoregresyjnym. Kluczowa jest niska latencja sieci i wysoka przepustowość pamięci, bo trzeba przechowywać wyniki pośrednie.

Niska

Wysoka

Wysoka

Wysoka

Niska

Trening modeli rankingowych / rekomendacyjnych

Model uczy się porządkować i rekomendować elementy. Ze względu na rozproszenie macierzy wag wymaga dużej przepustowości sieci między wieloma maszynami.

Niska → Średnia

Niska → Średnia

Średnia

Średnia

Wysoka

Inferencja ranking / rekomendacje

Wytrenowany model przewiduje rankingi lub rekomendacje w czasie rzeczywistym. Choć wymaga dużej pamięci, optymalizacje ograniczają potrzebę mocy obliczeniowej i przepustowości pamięci.

Niska → Średnia

Wysoka

Średnia

Niska

Niska

W praktyce: hyperskalerzy przenoszą część inferencji bliżej użytkownika (edge), a firmy SaaS monetyzują AI głównie przez opłaty za tokeny/API.


5. Małe jest piękne: Small Language Models (SLM) i zwinna strona AI


Kontekst:

  • SLM-y (Small Language Models) to „młodsze rodzeństwo” gigantycznych LLM-ów (np. GPT-4).

  • Mają kilka miliardów parametrów zamiast setek miliardów, dzięki czemu zużywają znacznie mniej mocy obliczeniowej, są tańsze w trenowaniu i szybciej generują odpowiedzi.


Kluczowe zalety SLM-ów:

Zaleta

Co to znaczy w praktyce?

Efektywność & koszty

Mniej GPU → niższy CAPEX/OPEX i emisja CO₂. Ma znaczenie dla firm, które chcą lokalnie uruchamiać AI (on-prem, edge).

Elastyczność & personalizacja

Model można łatwo dopasować do małych, branżowych zbiorów danych (np. medycyna, prawo).

Bezpieczeństwo & prywatność

Mniejsza „powierzchnia ataku”. Przy wdrożeniu on-device dane nie opuszczają urządzenia (ważne w finansach czy sektorze publicznym).

Przykłady innowacji:

  • DistilBERT – odchudzona wersja BERT-a, szeroko stosowana w klasyfikacji tekstu.

  • Orca 2 (Microsoft) – poprawiona zdolność rozumowania dzięki syntetycznym danym.

  • Phi-2 (Microsoft) – zoptymalizowany pod edge i chmurę, osiąga wyniki większych modeli w tłumaczeniu czy Q&A.

  • GPT-Neo / GPT-J – open-source’owe alternatywy z niższymi wymaganiami sprzętowymi.

  • Mistral 7B & Mixtral 8×7B – francuski start-up udostępnia model, który przy 47 mld parametrów generuje odpowiedzi z kosztami 13-mld-parametrowego modelu (dzięki architekturze MoE).


Wyzwania i zastrzeżenia:

Obszar

Ryzyko / ograniczenie

Porównanie z LLM-ami

SLM-y bywają słabsze w złożonych zadaniach (np. kodowanie, multi-modalność). Trzeba je precyzyjnie dostroić do konkretnej domeny.

Bias & jakość danych

Mniej parametrów = mniejsza „pojemność” na wiedzę; niedoszacowanie danych treningowych może pogłębiać stronniczość.

Potencjał, ale…

Microsoft pokazuje, że dobre inżynierowanie danych (Phi-2) może dorównać dużym modelom w logice i matematyce – to nie gwarancja, lecz obietnica wymagająca dalszych badań.

Dlaczego to jest ważne dla inwestora?

  1. Nowe nisze rynkowe – SLM-y tworzą popyt na lekkie akceleratory (CPU + NPU, edge GPU) oraz lokalny storage, a nie tylko potężne centra danych.

  2. Shifting economics – spadek kosztu inferencji może przesunąć marże z infrastruktury (GPU/cloud) na warstwę aplikacji i usług.

  3. Dywersyfikacja ryzyka regulacyjnego – mniejsze modele łatwiej „przywiązują” dane do jurysdykcji klienta, co może być przewagą w sektorach podlegających ścisłym regulacjom (finanse, zdrowie, administracja).

Podsumowując: rewolucja AI to nie tylko wyścig po „największy” model. Równie ważny staje się wyścig na inteligencję dostępną wszędzie – od smartfona po serwer na zapleczu sklepu. Z punktu widzenia inwestora warto więc obserwować zarówno producentów ogromnych GPU-klastrów, jak i firmy skupione na lekkich, wyspecjalizowanych modelach i sprzęcie edge.

6. Kto prawdopodobnie zyska na tym trendzie?

  1. Półprzewodniki: Nvidia, AMD, Broadcom – marże rosną wraz z cyklem wymiany GPU.

  2. Energetyka: spółki z OZE oraz dostawcy gazu (backup) – rośnie popyt na kontrakty PPA.

  3. Data-center REITs / deweloperzy: Digital Realty, Equinix, SEGRO – AI-related leasing to już ⅓-⅔ nowych umów.

  4. Chłodzenie & zasilanie: Vertiv, Eaton, Schneider – rekordowe backlogi.

  5. Software-as-a-Service: dostawcy agentów AI (Salesforce, ServiceNow) – wyceny uzasadnia 59 % CAGR rynku oprogramowania AI do 2032 r.

  6. Kto jeszcze? Więcej o nowych, wyłaniających się potencjalnych liderach Megatrendu AI informujemy na łamach Kompas Premium. Dołącz do naszej społeczności już dzisiaj i bądź na bieżąco z najnowszymi informacjami.

„Z przepływem informacji na rynkach finansowych jest jest trochę tak jak z łańcuchem pokarmowym: jeśli jesteś na początku łańcucha, zjadasz następnych, jeśli jesteś na końcu - sam jesteś zjadany” Edward O. Thorp

7. Ryzyka

Koszty energii: opóźnienia w rozbudowie sieci mogą windować ceny prądu dla odbiorców końcowych.


Regulacje: limity eksportu układów (USA-Chiny) i AI Safety Act mogą spowolnić adopcję najnowszych GPU.


Zmienność cyklu półprzewodników: historia uczy, że nadpodaż mocy obliczeniowej potrafi wychłodzić marże.


8. Podsumowanie

Generative AI to nie chwilowy hype, lecz transformacja porównywalna z rewolucją mobilną czy internetową. Nasze badania pokazują, że wraz z eksplozją parametrów modeli rośnie głód mocy i kapitału. Dla inwestorów oznacza to szerokie spektrum szans – od producentów chipów, przez operatorów centrów danych, po dostawców zielonej energii. Kluczem jest selekcja podmiotów zdolnych utrzymać marże w środowisku rosnących kosztów energii i CapEx.


Wszystkie treści zawarte na stronie www.kompasrynkowy.pl (dalej Serwis) mają wyłącznie charakter informacyjny i edukacyjny. Decyzje inwestycyjne podjęte na ich podstawie podejmowane są na wyłączną odpowiedzialność Użytkownika Serwisu. Zawarte w Serwisie dane, raporty, opracowania, informacje, analizy zostały przygotowane wyłącznie w celach informacyjnych, są tylko i wyłącznie subiektywnymi opiniami autorów i nie stanowią w szczególności:

a. usług doradztwa inwestycyjnego lub udzielania rekomendacji dotyczących instrumentów finansowych lub ich emitentów, o których mowa w ustawie z dnia 29 lipca 2005 roku o obrocie instrumentami finansowymi (t.j. Dz.U. z 2020 r. poz. 89),

b. rekomendacji w rozumieniu przepisów „Rozporządzenia Delegowanego Komisji (UE) nr 2016/958 z dnia 9 marca 2016r. uzupełniającego rozporządzenie Parlamentu Europejskiego i Rady (UE) nr 596/2014 w odniesieniu do regulacyjnych standardów technicznych dotyczących środków technicznych do celów obiektywnej prezentacji rekomendacji inwestycyjnych lub innych informacji rekomendujących lub sugerujących strategię inwestycyjną oraz ujawniania interesów partykularnych lub wskazań konfliktów interesów”.


Chcesz poczytać więcej?

Subskrybuj kompasrynkowy.pl, aby czytać dalej ten post.

 
 
 
bottom of page