
Najnowszy raport badaczy z MIT dolał oliwy do ognia w trwającej dyskusji o opłacalności AI. Rynki zareagowały nerwowo, a wielu menedżerów po raz pierwszy stawia pytanie nie „jak wdrożyć AI”, lecz „czy to się w ogóle kiedykolwiek opłaci?”. Poniżej wyjaśniam, skąd bierze się „95% bez zwrotu”, dlaczego generatywna AI najczęściej zamyka się w mikro-usprawnieniach, oraz czemu dla większości firm rachunek ekonomiczny będzie ujemny – dziś i jutro.
W ostatnich miesiącach narastał rozdźwięk pomiędzy deklaracjami zarządów a twardymi wynikami. Wydatki na AI – w tym na budowę infrastruktury i licencje modeli – rosły szybciej niż przychody i oszczędności przypisywane tym projektom. Najnowsze opracowanie badaczy z MIT, szeroko komentowane na rynkach, postawiło kropkę nad „i”: w ogromnej większości firm projekty generatywnej AI nie generują mierzalnego wpływu na P&L. To nie jest korekta oczekiwań – to kubeł zimnej wody. Giełda, która przez kilkanaście miesięcy dyskontowała „przyszłe zyski z AI”, zareagowała spadkami spółek, które najbardziej budowały narrację o natychmiastowych korzyściach.
Dlaczego to ważne? Bo przez rok dominował prosty schemat: „wydatki na AI = wyższa wycena”. MIT burzy tę równość. Jeśli 95% inicjatyw nie ma zwrotu, rynek zaczyna rozróżniać między firmami, które rzeczywiście potrafią dzięki AI obniżyć jednostkowe koszty lub zwiększyć produktywność sprzedaży, a tymi, które jedynie mówią o „transformacji”.
Liczba robi wrażenie, ale nie spadła z nieba. Na jej tle rysują się trzy powtarzalne wzorce:
1) Wysoka adopcja, niska transformacja. Pracownicy korzystają z narzędzi czatowych, generują szkice maili czy podsumowania. To realne mikro-usprawnienia, które jednak nie przekładają się na całe procesy i KPI finansowe. W ujęciu rachunkowym są to „oszczędności miękkie”, konsumowane przez koszty nadzoru i walidacji.
2) Pochopna budowa rozwiązań „in-house”. Wiele organizacji próbuje na szybko tworzyć własne modele lub złożone integracje bez dojrzałej architektury danych i procesu uczenia w miejscu pracy. Efekt: projekty kończą w fazie pilota, a koszty utrzymania rosną.
3) Brak trwałej pamięci i adaptacji w krytycznych przepływach. Narzędzia sprawdzają się w demonstracjach, ale w produkcji zawodzą, bo nie utrzymują kontekstu, nie uczą się stabilnie na danych firmowych lub wprowadzają nieakceptowalną zmienność jakości.
Większość dzisiejszych zastosowań generatywnej AI to automatyzacja drobnych kroków: szkic odpowiedzi do klienta, skrócenie notatki ze spotkania, wstępne tagowanie zgłoszeń, pierwsza wersja oferty. To przydatne „asysty”, ale zbyt płytkie, by zmienić ekonomikę całego procesu sprzedaży, serwisu czy back-office’u.
Problemem jest pełny TCO: poza „kosztem tokenów” firma ponosi ciężar integracji, nadzoru eksperckiego (human-in-the-loop), testów bezpieczeństwa i zgodności, logowania i monitoringu halucynacji, utrzymania wektorowych indeksów wiedzy, szkoleń użytkowników, cyklicznego hardeningu promptów, a także strat wynikających z pojedynczych błędów na styku z klientem. Przy takich stałych i zmiennych kosztach oszczędność 2–3 minut na e-mailu zwyczajnie nie skompensuje rachunku – zwłaszcza na małą i średnią skalę, tam gdzie brak efektów skali.
Wbrew marketingowi dostawców, AI nie zastępuje „większości procesów”. Zastępuje fragmenty – i to głównie te, które są najłatwiej standaryzowalne tekstowo. W sektorach intensywnie kontekstowych (sprzedaż doradcza, obsługa premium, opieka, edukacja, projekty B2B szyte na miarę) generatywna AI bywa tylko dodatkiem. Z ekonomicznego punktu widzenia to narzędzie wspierające, nie „silnik kosztowy”. Dlatego dla większości firm, zwłaszcza tych o rozproszonej ofercie i nieregularnym popycie, AI nie będzie opłacalne nigdy jako substytut szerokich procesów. Pozostanie użyteczne, ale w niszy mikro-zadań – i w bilansie często będzie podnosiło koszty (compliance, odpowiedzialność, ryzyko wizerunkowe) szybciej niż obniżało koszty pracy.
Ekonomiści opisują przebieg adopcji technologii ogólnego przeznaczenia (jak elektryczność, komputery czy dziś AI) jako „krzywą J”: najpierw spadek efektywności, potem – po inwestycjach w komplementarne aktywa (dane, reorganizacja pracy, kompetencje) – ewentualny wzrost. To oznacza, że jeżeli firma nie jest gotowa przebudować procesu end-to-end, utknie w części „spadkowej” krzywej – i nie doczeka fazy wzrostowej. I to właśnie widać w praktyce: masę pilotaży, mało wdrożeń produkcyjnych, a w P&L – cisza.
Istnieje wąska grupa firm, dla których AI jest realnym obniżeniem kosztów. Cechują je: procesy o wysokiej powtarzalności (np. masowy back-office, windykacja, routing zgłoszeń), silna dyscyplina danych (ontologie, słowniki, reguły redakcyjne), architektura „AI-native” (pamięć trwała, pętle feedbacku, uczenie w miejscu pracy) oraz rygor zarządzania ryzykiem (granice odpowiedzialności, metryki jakości, procedury degradacji). Dla nich AI to konkret: mniejszy koszt obsługi jednego zgłoszenia, krótszy TAT, niższa stopa eskalacji. Ale to nie jest większość rynku. To wąski pas zwycięzców, którzy mają skalę, dane i determinację, by przebudować pracę pod technologię.
Rynki kapitałowe nie są ślepe na metryki. Po roku entuzjazmu zaczęły patrzeć na to, które spółki raportują twarde oszczędności jednostkowe lub przyrosty przychodów przypisywane AI, a które jedynie zwiększają CAPEX i OPEX na centra danych oraz licencje. Rewizja tej narracji wywołała korekty kursów i bardziej selektywną wycenę: premię dostają projekty z udokumentowanym wpływem operacyjnym, a nie te, które „pracują nad agentami” bez planu P&L.
Paradoks wielu wdrożeń polega na tym, że pracownik jest szczęśliwszy (mniej nudnych czynności), menedżer widzi lokalne przyspieszenie (np. szybszy pierwszy szkic), a firma jako całość nie osiąga zysku. W dodatku pojawia się nowa warstwa kontroli jakości, audytu zgodności i nadzoru, która „zjada” zaoszczędzone minuty. To dlatego w łańcuchu wartości wygrywają dziś głównie dostawcy infrastruktury (chmura, układy, energia), podczas gdy typowy użytkownik biznesowy nie widzi w P&L zmiany na plus.
W praktyce rośnie: koszt energii i mocy obliczeniowych, koszt transferu danych i przechowywania wektorów, koszt narzędzi bezpieczeństwa (DLP, szyfrowanie, maskowanie), koszt audytów i DPIA, koszt pracy inżynierów platformowych, a także koszt reputacyjny ryzyk (halucynacje, wycieki, błędy prawne). Tymczasem zyski majątkowe z AI (np. lepsze dane treningowe, zintegrowane repozytoria wiedzy, nowa architektura procesów) nie są księgowane bezpośrednio w wynikach krótkoterminowych. Kiedy nie widać korzyści, a rachunki przychodzą co miesiąc, sentencja „AI się opłaca” przestaje brzmieć przekonująco.
1) Definiuj mikro-sekcje, nie „transformację wszystkiego”. Wybierz 1–2 wąskie kroki, które mają bezpośrednie przełożenie na koszt jednostkowy lub SLA. Przykłady: automatyczne uzupełnianie metadanych dokumentów, kategoryzacja zgłoszeń z progiem pewności i regułą degradacji, ekstrakcja pól z formularzy do ERP.
2) Rozliczaj w P&L, nie w „zadowoleniu użytkownika”. Mierz o ile spadł koszt obsługi jednej sprawy, o ile skrócił się czas cyklu, ile eskalacji mniej. Z góry ustal „bramkę zamknięcia”: jeżeli po X tygodniach nie ma efektu ≥ Y%, projekt wygaszamy.
3) Kupuj zamiast budować, jeśli nie masz warunków. Z półki są już rozwiązania dla wybranych nisz. Jeżeli nie dysponujesz zespołem platformowym, porządnym katalogiem danych i jasnymi politykami jakości, budowa „własnej AI” skończy się demonstratorem bez produkcji.
4) Traktuj AI jak narzędzie o ryzyku operacyjnym. Ustal reguły: kiedy AI tylko podpowiada, a kiedy wolno mu podjąć decyzję. Zadbaj o dzienniki, powtarzalne testy regresyjne po aktualizacji modeli, politykę promptów i procedury wycofania funkcji w razie spadku jakości.
5) Licz alternatywy. W wielu miejscach klasyczna automatyzacja regułowa lub proste makra dadzą 80% efektu bez „czarnej skrzynki” i ciężaru compliance. Wybieraj młot, nie młot pneumatyczny, jeśli gwoździe są cienkie.
Są obszary, w których generatywna AI już dziś daje twarde liczby – ale wszystkie mają wspólny mianownik: powtarzalność i standaryzacja. Należą do nich m.in.: routing i deduplikacja zgłoszeń (spadek AHT), automatyczne odpowiedzi w IVR/chat (mniej transferów do operatora), ekstrakcja i walidacja danych z faktur i umów (mniej błędów manualnych), generowanie „pierwszego szkicu” ofert w BPO (krótszy TAT), wsparcie agentów w call center pod rygorem polityk wiedzy (wyższa spójność odpowiedzi). To jednak nisze, a nie główny nurt działalności większości przedsiębiorstw.
Po pierwsze, generatywna AI w obecnej formie to raczej „egzoszkielet produktywności” niż „autopilot zysków”. W 95% inicjatyw rachunek się nie domyka – i to nie dlatego, że firmy „za mało próbują”, ale dlatego, że ekonomia mikro-usprawnień nie skaluje się do makro-zysków bez głębokiej przebudowy pracy.
Po drugie, tylko nieliczne, znakomicie przygotowane organizacje przekroczą „krzywą J” i pokażą w sprawozdaniach zmiany na poziomie kosztów jednostkowych lub marż. Będą one wyjątkiem, nie regułą.
Po trzecie, rynki kapitałowe w naturalny sposób przejdą z narracji o „wydatkach na AI” do rozliczania „zwrotu z AI”. To wymusi weryfikację strategii i selekcję projektów. I dobrze – bo tylko dyscyplina P&L oddzieli użyteczną automatyzację od drogich eksperymentów.
Po czwarte, jeśli nie zamierzasz przebudować procesu – lepiej nie zaczynaj. Pokusa „mamy też asystenta” jest duża, ale koszty (finansowe i reputacyjne) z reguły szybko przewyższą miękkie korzyści.
To nie jest „koniec AI”. To koniec naiwnej wiary, że wystarczy kupić model i dodać przycisk „AI” do aplikacji, by marża wzrosła. Dla 95% firm generatywna AI pozostanie narzędziem do mikro-zadań, które poprawiają komfort pracy, ale nie budują przewagi cenotwórczej. Dla nielicznych – tych z odpowiednią skalą, danymi i odwagą organizacyjną – stanie się dźwignią realnych oszczędności. Rynki już zaczęły rozróżniać jednych od drugich. Warto zrobić to samo, zanim zrobi to za nas rachunek wyników.
Autor: Grzegorz Wiśniewski, red. naczelny Mindly.pl, CEO Soluma Group, CEO Soluma Interactive.
https://nanda.mit.edu/ – Strona projektu MIT (Media Lab) NANDA, w ramach którego powstał raport o stanie wdrożeń genAI w biznesie. Zawiera informacje o autorach, podejściu badawczym i linki do publikacji.
https://fortune.com/2025/08/18/mit-report-95-percent-generative-ai-pilots-at-companies-failing-cfo/ – Omówienie ustaleń MIT: ~95% pilotaży genAI nie przynosi mierzalnego zwrotu; opis metodologii (przegląd projektów, wywiady) i różnic w skuteczności strategii „kupuj vs. buduj”.
https://www.ft.com/content/ce3b23b0-68d7-4ce8-8e21-ebdb510a76b8 – „Financial Times”: rynkowa reakcja na raport MIT; wpływ na wyceny spółek technologicznych i dyskusja o „bańce AI”.
https://www.newyorker.com/news/the-financial-page/the-ai-profits-drought-and-the-lessons-of-history – Analiza „New Yorker”: „susza zysków z AI” i historyczne analogie (paradoks produktywności), w tym odniesienie do wniosków MIT.
https://www.wsj.com/finance/stocks/tech-rally-shows-signs-of-losing-steam-e948af4d – „Wall Street Journal”: sygnały słabnącej hossy technologicznej i rosnący sceptycyzm inwestorów wobec szybkich zysków z AI.
https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai – „State of AI” (McKinsey): szerokie dane o adopcji i tworzeniu wartości; kontekst do dyskusji o tym, gdzie pojawiają się faktyczne przychody/ oszczędności (i gdzie wcale).
https://hai.stanford.edu/ai-index/2025-ai-index-report – „Stanford AI Index 2025”: trendy techniczne i rynkowe (konwergencja wyników modeli, dominacja przemysłu), co tłumaczy, dlaczego przewaga z samych modeli szybko się komodytyzuje.
https://www.nber.org/papers/w25148 – Brynjolfsson, Rock, Syverson: „The Productivity J-Curve” (NBER). Podstawa teoretyczna wyjaśniająca, czemu wczesne fazy GPT – w tym AI – dają ujemny/zerowy zwrot przed pojawieniem się efektów komplementarnych inwestycji.
https://hbr.org/2025/08/should-you-stop-investing-in-ai-for-now – „Harvard Business Review”: argumenty, dlaczego wiele strategii AI nie dostarcza dziś ROI i kiedy warto wstrzymać inwestycje do czasu przebudowy procesu.
https://hbr.org/2025/07/will-your-gen-ai-strategy-shape-your-future-or-derail-it – „HBR”: o ryzykach i wysokiej złożoności przejścia z pilota do skali; większość programów genAI nie dowozi zamierzonego efektu finansowego.
https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/06/the-effects-of-generative-ai-on-productivity-innovation-and-entrepreneurship_da1d085d/b21df222-en.pdf – OECD: przegląd badań nad wpływem genAI na produktywność i innowacje; podkreśla ograniczenia, niepewność uogólnienia wyników i potrzebę inwestycji komplementarnych.
https://www.imf.org/en/Publications/Staff-Discussion-Notes/Issues/2024/06/11/Broadening-the-Gains-from-Generative-AI-The-Role-of-Fiscal-Policies-549639 – IMF: ujęcie makro – AI może przynieść korzyści, ale rozkład zysków jest nierówny, a adopcja często generuje koszty i ryzyka zanim pojawią się trwałe efekty.