Kompas Dnia: Megatrend AI (Sztuczna Inteligencja)-skala, modele i moc. Przewodnik inwestora cz.2.
- Kompas Rynkowy

- 26 lip
- 6 minut(y) czytania
Zaktualizowano: 2 sie
W pierwszym tekście z cyklu Megatrend AI – „Megatrend AI (sztuczna inteligencja) - Hyperskalowe przyspieszenie AI. Przewodnik inwestora cz.1” – przyjrzeliśmy się megabudżetom Amazona, Microsoftu czy Google’a i temu, jak lawinowy CAPEX tych gigantów wywołuje falę inwestycji w centra danych, chipy i energię. Pokazaliśmy warstwę infrastruktury – fundament, bez którego rewolucja AI nie ruszy.
Dziś schodzimy o jeden poziom głębiej. Skoro wiemy już, kto stawia serwerownie i ile prądu one pochłoną, pora zrozumieć co dokładnie dzieje się na tych GPU-klastrach oraz jak rosnące „apetyty” modeli przekładają się na Twój portfel. W tym wpisie odsłaniam trzy kluczowe wymiary:
Skala – tempo przyrostu parametrów i energii zużywanej przez AI przypomina wykładniczy wykres z podręcznika.
Architektura – obok gigantycznych LLM-ów wyrastają zwinne Small Language Models, które mogą przewrócić stolik kosztów inferencji.
Fizyka biznesu – większe modele to nie tylko więcej FLOPS-ów, lecz także nowa struktura wydatków na chłodzenie, pamięć i pasmo sieciowe.
W kolejnych akapitach pokażemy, jak te zmienne splatają się w realne szanse inwestycyjne – od producentów chipów, przez operatorów zielonej energii, po twórców wyspecjalizowanego oprogramowania. Jeśli poprzedni artykuł był mapą autostrad i mostów AI, ten jest przewodnikiem po tym, co przewożone jest po tych drogach – i kto na tym zarabia. Zapnij pasy...
1. Rynek, który rośnie wykładniczo
Globalne przychody z AI mają skoczyć z 96 mld USD (2021) do 1,85 bln USD w 2030 r., co oznacza ok.37 % CAGR.

Za boomem w oprogramowaniu idzie infrastruktura: zapotrzebowanie na moc centrów danych wzrośnie z ok. 200 TWh do ponad 600 TWh do 2040 r., przy czym sama AI odpowiada za 25 % rocznego tempa wzrostu.



Wnioski dla inwestora: rosną wydatki hyperscalerów i funduszy infrastrukturalnych; beneficjentami są producenci chipów, systemów zasilania i operatorzy DC.
2. Modele coraz większe… i coraz mniejsze
Klasa | Przykłady | Parametry | Po co? |
Frontier LLM | GPT-4o, Claude 3 | 1-1,8 bln+ | Maksymalna jakość, ale wysokie koszty treningu/inferencji |
SLM / Nimble | Llama 7B, Mistral 7B, Phi-2 | 0,8-13 mld | Lokalny deployment, niższe CAPEX/OPEX |
Rozmiary flagowych modeli skoczyły >50× od 2020 r. do 2025 r.
Równolegle Microsoft, Meta i open-source promują SLM-y, które dorównują „gigantom” w logice czy matematyce przy ułamkowych wymaganiach sprzętowych.

3. Wyzwanie energetyczne
Najnowszy układ Nvidia B200 pobiera >1,2 kW, dwa razy więcej niż poprzednik H100.
Racki 60-100 kW stają się normą, co wymusza przejście z chłodzenia powietrzem na direct-to-chip / immersion.

Implikacje rynkowe: rośnie popyt na UPS-y, transformatory i cieczy chłodzące, a także na zieloną energię i projekty SMR.
4. Trening vs Inferencja – inna fizyka, inny biznes
Etap | Opis | Moc obliczeniowa | Pojemność pamięci | Przepustowość pamięci | Wrażliwość na opóźnienia sieci | Przepustowość sieci |
Trening LLM | Modele uczą się na ogromnych zbiorach danych, przetwarzając biliony parametrów rozproszonych na tysiącach GPU. Proces jest ekstremalnie obciążający obliczeniowo i wymaga dużej przepustowości sieci. | Wysoka | Średnia | Średnia | Średnia | Wysoka |
Inferencja LLM – faza prefill | Po wytrenowaniu modelu, podczas zapytania („promptu”) najpierw równolegle przetwarzane są tokeny wejściowe. Prefill jest bardzo wymagający obliczeniowo i pamięciowo (do 10 PFLOPS, aby uzyskać pierwszy token). | Wysoka | Średnia → Wysoka | Niska | Niska | Niska |
Inferencja LLM – faza decode | Model generuje tekst token po tokenie w trybie autoregresyjnym. Kluczowa jest niska latencja sieci i wysoka przepustowość pamięci, bo trzeba przechowywać wyniki pośrednie. | Niska | Wysoka | Wysoka | Wysoka | Niska |
Trening modeli rankingowych / rekomendacyjnych | Model uczy się porządkować i rekomendować elementy. Ze względu na rozproszenie macierzy wag wymaga dużej przepustowości sieci między wieloma maszynami. | Niska → Średnia | Niska → Średnia | Średnia | Średnia | Wysoka |
Inferencja ranking / rekomendacje | Wytrenowany model przewiduje rankingi lub rekomendacje w czasie rzeczywistym. Choć wymaga dużej pamięci, optymalizacje ograniczają potrzebę mocy obliczeniowej i przepustowości pamięci. | Niska → Średnia | Wysoka | Średnia | Niska | Niska |
W praktyce: hyperskalerzy przenoszą część inferencji bliżej użytkownika (edge), a firmy SaaS monetyzują AI głównie przez opłaty za tokeny/API.
5. Małe jest piękne: Small Language Models (SLM) i zwinna strona AI
Kontekst:
SLM-y (Small Language Models) to „młodsze rodzeństwo” gigantycznych LLM-ów (np. GPT-4).
Mają kilka miliardów parametrów zamiast setek miliardów, dzięki czemu zużywają znacznie mniej mocy obliczeniowej, są tańsze w trenowaniu i szybciej generują odpowiedzi.
Kluczowe zalety SLM-ów:
Zaleta | Co to znaczy w praktyce? |
Efektywność & koszty | Mniej GPU → niższy CAPEX/OPEX i emisja CO₂. Ma znaczenie dla firm, które chcą lokalnie uruchamiać AI (on-prem, edge). |
Elastyczność & personalizacja | Model można łatwo dopasować do małych, branżowych zbiorów danych (np. medycyna, prawo). |
Bezpieczeństwo & prywatność | Mniejsza „powierzchnia ataku”. Przy wdrożeniu on-device dane nie opuszczają urządzenia (ważne w finansach czy sektorze publicznym). |
Przykłady innowacji:
DistilBERT – odchudzona wersja BERT-a, szeroko stosowana w klasyfikacji tekstu.
Orca 2 (Microsoft) – poprawiona zdolność rozumowania dzięki syntetycznym danym.
Phi-2 (Microsoft) – zoptymalizowany pod edge i chmurę, osiąga wyniki większych modeli w tłumaczeniu czy Q&A.
GPT-Neo / GPT-J – open-source’owe alternatywy z niższymi wymaganiami sprzętowymi.
Mistral 7B & Mixtral 8×7B – francuski start-up udostępnia model, który przy 47 mld parametrów generuje odpowiedzi z kosztami 13-mld-parametrowego modelu (dzięki architekturze MoE).
Wyzwania i zastrzeżenia:
Obszar | Ryzyko / ograniczenie |
Porównanie z LLM-ami | SLM-y bywają słabsze w złożonych zadaniach (np. kodowanie, multi-modalność). Trzeba je precyzyjnie dostroić do konkretnej domeny. |
Bias & jakość danych | Mniej parametrów = mniejsza „pojemność” na wiedzę; niedoszacowanie danych treningowych może pogłębiać stronniczość. |
Potencjał, ale… | Microsoft pokazuje, że dobre inżynierowanie danych (Phi-2) może dorównać dużym modelom w logice i matematyce – to nie gwarancja, lecz obietnica wymagająca dalszych badań. |
Dlaczego to jest ważne dla inwestora?
Nowe nisze rynkowe – SLM-y tworzą popyt na lekkie akceleratory (CPU + NPU, edge GPU) oraz lokalny storage, a nie tylko potężne centra danych.
Shifting economics – spadek kosztu inferencji może przesunąć marże z infrastruktury (GPU/cloud) na warstwę aplikacji i usług.
Dywersyfikacja ryzyka regulacyjnego – mniejsze modele łatwiej „przywiązują” dane do jurysdykcji klienta, co może być przewagą w sektorach podlegających ścisłym regulacjom (finanse, zdrowie, administracja).
Podsumowując: rewolucja AI to nie tylko wyścig po „największy” model. Równie ważny staje się wyścig na inteligencję dostępną wszędzie – od smartfona po serwer na zapleczu sklepu. Z punktu widzenia inwestora warto więc obserwować zarówno producentów ogromnych GPU-klastrów, jak i firmy skupione na lekkich, wyspecjalizowanych modelach i sprzęcie edge.
6. Kto prawdopodobnie zyska na tym trendzie?
Półprzewodniki: Nvidia, AMD, Broadcom – marże rosną wraz z cyklem wymiany GPU.
Energetyka: spółki z OZE oraz dostawcy gazu (backup) – rośnie popyt na kontrakty PPA.
Data-center REITs / deweloperzy: Digital Realty, Equinix, SEGRO – AI-related leasing to już ⅓-⅔ nowych umów.
Chłodzenie & zasilanie: Vertiv, Eaton, Schneider – rekordowe backlogi.
Software-as-a-Service: dostawcy agentów AI (Salesforce, ServiceNow) – wyceny uzasadnia 59 % CAGR rynku oprogramowania AI do 2032 r.
Kto jeszcze? Więcej o nowych, wyłaniających się potencjalnych liderach Megatrendu AI informujemy na łamach Kompas Premium. Dołącz do naszej społeczności już dzisiaj i bądź na bieżąco z najnowszymi informacjami.
„Z przepływem informacji na rynkach finansowych jest jest trochę tak jak z łańcuchem pokarmowym: jeśli jesteś na początku łańcucha, zjadasz następnych, jeśli jesteś na końcu - sam jesteś zjadany” Edward O. Thorp
7. Ryzyka
Koszty energii: opóźnienia w rozbudowie sieci mogą windować ceny prądu dla odbiorców końcowych.
Regulacje: limity eksportu układów (USA-Chiny) i AI Safety Act mogą spowolnić adopcję najnowszych GPU.
Zmienność cyklu półprzewodników: historia uczy, że nadpodaż mocy obliczeniowej potrafi wychłodzić marże.
8. Podsumowanie
Generative AI to nie chwilowy hype, lecz transformacja porównywalna z rewolucją mobilną czy internetową. Nasze badania pokazują, że wraz z eksplozją parametrów modeli rośnie głód mocy i kapitału. Dla inwestorów oznacza to szerokie spektrum szans – od producentów chipów, przez operatorów centrów danych, po dostawców zielonej energii. Kluczem jest selekcja podmiotów zdolnych utrzymać marże w środowisku rosnących kosztów energii i CapEx.
Wszystkie treści zawarte na stronie www.kompasrynkowy.pl (dalej Serwis) mają wyłącznie charakter informacyjny i edukacyjny. Decyzje inwestycyjne podjęte na ich podstawie podejmowane są na wyłączną odpowiedzialność Użytkownika Serwisu. Zawarte w Serwisie dane, raporty, opracowania, informacje, analizy zostały przygotowane wyłącznie w celach informacyjnych, są tylko i wyłącznie subiektywnymi opiniami autorów i nie stanowią w szczególności:
a. usług doradztwa inwestycyjnego lub udzielania rekomendacji dotyczących instrumentów finansowych lub ich emitentów, o których mowa w ustawie z dnia 29 lipca 2005 roku o obrocie instrumentami finansowymi (t.j. Dz.U. z 2020 r. poz. 89),
b. rekomendacji w rozumieniu przepisów „Rozporządzenia Delegowanego Komisji (UE) nr 2016/958 z dnia 9 marca 2016r. uzupełniającego rozporządzenie Parlamentu Europejskiego i Rady (UE) nr 596/2014 w odniesieniu do regulacyjnych standardów technicznych dotyczących środków technicznych do celów obiektywnej prezentacji rekomendacji inwestycyjnych lub innych informacji rekomendujących lub sugerujących strategię inwestycyjną oraz ujawniania interesów partykularnych lub wskazań konfliktów interesów”.
Więcej w Regulaminie Serwisu.


