Dlaczego 95% wdrożeń generatywnej AI nie podnosi zysków – i czemu dla większości firm to się nigdy nie zepnie

Redakcja
25.08.2025

Najnowszy raport badaczy z MIT dolał oliwy do ognia w trwającej dyskusji o opłacalności AI. Rynki zareagowały nerwowo, a wielu menedżerów po raz pierwszy stawia pytanie nie „jak wdrożyć AI”, lecz „czy to się w ogóle kiedykolwiek opłaci?”. Poniżej wyjaśniam, skąd bierze się „95% bez zwrotu”, dlaczego generatywna AI najczęściej zamyka się w mikro-usprawnieniach, oraz czemu dla większości firm rachunek ekonomiczny będzie ujemny – dziś i jutro.

„Złoto” zamieniło się w miedź: sygnał z MIT i otrzeźwienie inwestorów

W ostatnich miesiącach narastał rozdźwięk pomiędzy deklaracjami zarządów a twardymi wynikami. Wydatki na AI – w tym na budowę infrastruktury i licencje modeli – rosły szybciej niż przychody i oszczędności przypisywane tym projektom. Najnowsze opracowanie badaczy z MIT, szeroko komentowane na rynkach, postawiło kropkę nad „i”: w ogromnej większości firm projekty generatywnej AI nie generują mierzalnego wpływu na P&L. To nie jest korekta oczekiwań – to kubeł zimnej wody. Giełda, która przez kilkanaście miesięcy dyskontowała „przyszłe zyski z AI”, zareagowała spadkami spółek, które najbardziej budowały narrację o natychmiastowych korzyściach.

Dlaczego to ważne? Bo przez rok dominował prosty schemat: „wydatki na AI = wyższa wycena”. MIT burzy tę równość. Jeśli 95% inicjatyw nie ma zwrotu, rynek zaczyna rozróżniać między firmami, które rzeczywiście potrafią dzięki AI obniżyć jednostkowe koszty lub zwiększyć produktywność sprzedaży, a tymi, które jedynie mówią o „transformacji”.

Skąd się bierze liczba 95%? Anatomia niepowodzeń

Liczba robi wrażenie, ale nie spadła z nieba. Na jej tle rysują się trzy powtarzalne wzorce:

1) Wysoka adopcja, niska transformacja. Pracownicy korzystają z narzędzi czatowych, generują szkice maili czy podsumowania. To realne mikro-usprawnienia, które jednak nie przekładają się na całe procesy i KPI finansowe. W ujęciu rachunkowym są to „oszczędności miękkie”, konsumowane przez koszty nadzoru i walidacji.

2) Pochopna budowa rozwiązań „in-house”. Wiele organizacji próbuje na szybko tworzyć własne modele lub złożone integracje bez dojrzałej architektury danych i procesu uczenia w miejscu pracy. Efekt: projekty kończą w fazie pilota, a koszty utrzymania rosną.

3) Brak trwałej pamięci i adaptacji w krytycznych przepływach. Narzędzia sprawdzają się w demonstracjach, ale w produkcji zawodzą, bo nie utrzymują kontekstu, nie uczą się stabilnie na danych firmowych lub wprowadzają nieakceptowalną zmienność jakości.

AI zamyka się w mikro-procesach – i to psuje rachunek

Większość dzisiejszych zastosowań generatywnej AI to automatyzacja drobnych kroków: szkic odpowiedzi do klienta, skrócenie notatki ze spotkania, wstępne tagowanie zgłoszeń, pierwsza wersja oferty. To przydatne „asysty”, ale zbyt płytkie, by zmienić ekonomikę całego procesu sprzedaży, serwisu czy back-office’u.

Problemem jest pełny TCO: poza „kosztem tokenów” firma ponosi ciężar integracji, nadzoru eksperckiego (human-in-the-loop), testów bezpieczeństwa i zgodności, logowania i monitoringu halucynacji, utrzymania wektorowych indeksów wiedzy, szkoleń użytkowników, cyklicznego hardeningu promptów, a także strat wynikających z pojedynczych błędów na styku z klientem. Przy takich stałych i zmiennych kosztach oszczędność 2–3 minut na e-mailu zwyczajnie nie skompensuje rachunku – zwłaszcza na małą i średnią skalę, tam gdzie brak efektów skali.

„To się nigdy nie zepnie” – mocna teza, ale dobrze ugruntowana

Wbrew marketingowi dostawców, AI nie zastępuje „większości procesów”. Zastępuje fragmenty – i to głównie te, które są najłatwiej standaryzowalne tekstowo. W sektorach intensywnie kontekstowych (sprzedaż doradcza, obsługa premium, opieka, edukacja, projekty B2B szyte na miarę) generatywna AI bywa tylko dodatkiem. Z ekonomicznego punktu widzenia to narzędzie wspierające, nie „silnik kosztowy”. Dlatego dla większości firm, zwłaszcza tych o rozproszonej ofercie i nieregularnym popycie, AI nie będzie opłacalne nigdy jako substytut szerokich procesów. Pozostanie użyteczne, ale w niszy mikro-zadań – i w bilansie często będzie podnosiło koszty (compliance, odpowiedzialność, ryzyko wizerunkowe) szybciej niż obniżało koszty pracy.

Krzywa produktywności typu „J”: teoria, która tłumaczy dzisiejszą frustrację

Ekonomiści opisują przebieg adopcji technologii ogólnego przeznaczenia (jak elektryczność, komputery czy dziś AI) jako „krzywą J”: najpierw spadek efektywności, potem – po inwestycjach w komplementarne aktywa (dane, reorganizacja pracy, kompetencje) – ewentualny wzrost. To oznacza, że jeżeli firma nie jest gotowa przebudować procesu end-to-end, utknie w części „spadkowej” krzywej – i nie doczeka fazy wzrostowej. I to właśnie widać w praktyce: masę pilotaży, mało wdrożeń produkcyjnych, a w P&L – cisza.

„Zwycięzcy” będą nieliczni – i dobrze zdefiniowani

Istnieje wąska grupa firm, dla których AI jest realnym obniżeniem kosztów. Cechują je: procesy o wysokiej powtarzalności (np. masowy back-office, windykacja, routing zgłoszeń), silna dyscyplina danych (ontologie, słowniki, reguły redakcyjne), architektura „AI-native” (pamięć trwała, pętle feedbacku, uczenie w miejscu pracy) oraz rygor zarządzania ryzykiem (granice odpowiedzialności, metryki jakości, procedury degradacji). Dla nich AI to konkret: mniejszy koszt obsługi jednego zgłoszenia, krótszy TAT, niższa stopa eskalacji. Ale to nie jest większość rynku. To wąski pas zwycięzców, którzy mają skalę, dane i determinację, by przebudować pracę pod technologię.

Wall Street też już rozróżnia „zapowiedzi” od „wpływu”

Rynki kapitałowe nie są ślepe na metryki. Po roku entuzjazmu zaczęły patrzeć na to, które spółki raportują twarde oszczędności jednostkowe lub przyrosty przychodów przypisywane AI, a które jedynie zwiększają CAPEX i OPEX na centra danych oraz licencje. Rewizja tej narracji wywołała korekty kursów i bardziej selektywną wycenę: premię dostają projekty z udokumentowanym wpływem operacyjnym, a nie te, które „pracują nad agentami” bez planu P&L.

„Zalety” dla pracownika ≠ „zyski” dla firmy

Paradoks wielu wdrożeń polega na tym, że pracownik jest szczęśliwszy (mniej nudnych czynności), menedżer widzi lokalne przyspieszenie (np. szybszy pierwszy szkic), a firma jako całość nie osiąga zysku. W dodatku pojawia się nowa warstwa kontroli jakości, audytu zgodności i nadzoru, która „zjada” zaoszczędzone minuty. To dlatego w łańcuchu wartości wygrywają dziś głównie dostawcy infrastruktury (chmura, układy, energia), podczas gdy typowy użytkownik biznesowy nie widzi w P&L zmiany na plus.

Dlaczego koszty realnie rosną

W praktyce rośnie: koszt energii i mocy obliczeniowych, koszt transferu danych i przechowywania wektorów, koszt narzędzi bezpieczeństwa (DLP, szyfrowanie, maskowanie), koszt audytów i DPIA, koszt pracy inżynierów platformowych, a także koszt reputacyjny ryzyk (halucynacje, wycieki, błędy prawne). Tymczasem zyski majątkowe z AI (np. lepsze dane treningowe, zintegrowane repozytoria wiedzy, nowa architektura procesów) nie są księgowane bezpośrednio w wynikach krótkoterminowych. Kiedy nie widać korzyści, a rachunki przychodzą co miesiąc, sentencja „AI się opłaca” przestaje brzmieć przekonująco.

Jak nie dopisać się do 95%? Minimalistyczny, ale twardy playbook

1) Definiuj mikro-sekcje, nie „transformację wszystkiego”. Wybierz 1–2 wąskie kroki, które mają bezpośrednie przełożenie na koszt jednostkowy lub SLA. Przykłady: automatyczne uzupełnianie metadanych dokumentów, kategoryzacja zgłoszeń z progiem pewności i regułą degradacji, ekstrakcja pól z formularzy do ERP.

2) Rozliczaj w P&L, nie w „zadowoleniu użytkownika”. Mierz o ile spadł koszt obsługi jednej sprawy, o ile skrócił się czas cyklu, ile eskalacji mniej. Z góry ustal „bramkę zamknięcia”: jeżeli po X tygodniach nie ma efektu ≥ Y%, projekt wygaszamy.

3) Kupuj zamiast budować, jeśli nie masz warunków. Z półki są już rozwiązania dla wybranych nisz. Jeżeli nie dysponujesz zespołem platformowym, porządnym katalogiem danych i jasnymi politykami jakości, budowa „własnej AI” skończy się demonstratorem bez produkcji.

4) Traktuj AI jak narzędzie o ryzyku operacyjnym. Ustal reguły: kiedy AI tylko podpowiada, a kiedy wolno mu podjąć decyzję. Zadbaj o dzienniki, powtarzalne testy regresyjne po aktualizacji modeli, politykę promptów i procedury wycofania funkcji w razie spadku jakości.

5) Licz alternatywy. W wielu miejscach klasyczna automatyzacja regułowa lub proste makra dadzą 80% efektu bez „czarnej skrzynki” i ciężaru compliance. Wybieraj młot, nie młot pneumatyczny, jeśli gwoździe są cienkie.

AI a „mikro-zyski”: ekstremalnie selektywny katalog szans

Są obszary, w których generatywna AI już dziś daje twarde liczby – ale wszystkie mają wspólny mianownik: powtarzalność i standaryzacja. Należą do nich m.in.: routing i deduplikacja zgłoszeń (spadek AHT), automatyczne odpowiedzi w IVR/chat (mniej transferów do operatora), ekstrakcja i walidacja danych z faktur i umów (mniej błędów manualnych), generowanie „pierwszego szkicu” ofert w BPO (krótszy TAT), wsparcie agentów w call center pod rygorem polityk wiedzy (wyższa spójność odpowiedzi). To jednak nisze, a nie główny nurt działalności większości przedsiębiorstw.

Wnioski twarde i niepopularne

Po pierwsze, generatywna AI w obecnej formie to raczej „egzoszkielet produktywności” niż „autopilot zysków”. W 95% inicjatyw rachunek się nie domyka – i to nie dlatego, że firmy „za mało próbują”, ale dlatego, że ekonomia mikro-usprawnień nie skaluje się do makro-zysków bez głębokiej przebudowy pracy.

Po drugie, tylko nieliczne, znakomicie przygotowane organizacje przekroczą „krzywą J” i pokażą w sprawozdaniach zmiany na poziomie kosztów jednostkowych lub marż. Będą one wyjątkiem, nie regułą.

Po trzecie, rynki kapitałowe w naturalny sposób przejdą z narracji o „wydatkach na AI” do rozliczania „zwrotu z AI”. To wymusi weryfikację strategii i selekcję projektów. I dobrze – bo tylko dyscyplina P&L oddzieli użyteczną automatyzację od drogich eksperymentów.

Po czwarte, jeśli nie zamierzasz przebudować procesu – lepiej nie zaczynaj. Pokusa „mamy też asystenta” jest duża, ale koszty (finansowe i reputacyjne) z reguły szybko przewyższą miękkie korzyści.

Podsumowanie: AI zostanie, ale jako dodatek – nie motor zysków

To nie jest „koniec AI”. To koniec naiwnej wiary, że wystarczy kupić model i dodać przycisk „AI” do aplikacji, by marża wzrosła. Dla 95% firm generatywna AI pozostanie narzędziem do mikro-zadań, które poprawiają komfort pracy, ale nie budują przewagi cenotwórczej. Dla nielicznych – tych z odpowiednią skalą, danymi i odwagą organizacyjną – stanie się dźwignią realnych oszczędności. Rynki już zaczęły rozróżniać jednych od drugich. Warto zrobić to samo, zanim zrobi to za nas rachunek wyników.

Autor: Grzegorz Wiśniewski, red. naczelny Mindly.pl,  CEO Soluma Group, CEO Soluma Interactive.

Źródła: 

https://nanda.mit.edu/ – Strona projektu MIT (Media Lab) NANDA, w ramach którego powstał raport o stanie wdrożeń genAI w biznesie. Zawiera informacje o autorach, podejściu badawczym i linki do publikacji.

https://fortune.com/2025/08/18/mit-report-95-percent-generative-ai-pilots-at-companies-failing-cfo/ – Omówienie ustaleń MIT: ~95% pilotaży genAI nie przynosi mierzalnego zwrotu; opis metodologii (przegląd projektów, wywiady) i różnic w skuteczności strategii „kupuj vs. buduj”.

https://www.ft.com/content/ce3b23b0-68d7-4ce8-8e21-ebdb510a76b8 – „Financial Times”: rynkowa reakcja na raport MIT; wpływ na wyceny spółek technologicznych i dyskusja o „bańce AI”.

https://www.newyorker.com/news/the-financial-page/the-ai-profits-drought-and-the-lessons-of-history – Analiza „New Yorker”: „susza zysków z AI” i historyczne analogie (paradoks produktywności), w tym odniesienie do wniosków MIT.

https://www.wsj.com/finance/stocks/tech-rally-shows-signs-of-losing-steam-e948af4d – „Wall Street Journal”: sygnały słabnącej hossy technologicznej i rosnący sceptycyzm inwestorów wobec szybkich zysków z AI.

https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai – „State of AI” (McKinsey): szerokie dane o adopcji i tworzeniu wartości; kontekst do dyskusji o tym, gdzie pojawiają się faktyczne przychody/ oszczędności (i gdzie wcale).

https://hai.stanford.edu/ai-index/2025-ai-index-report – „Stanford AI Index 2025”: trendy techniczne i rynkowe (konwergencja wyników modeli, dominacja przemysłu), co tłumaczy, dlaczego przewaga z samych modeli szybko się komodytyzuje.

https://www.nber.org/papers/w25148 – Brynjolfsson, Rock, Syverson: „The Productivity J-Curve” (NBER). Podstawa teoretyczna wyjaśniająca, czemu wczesne fazy GPT – w tym AI – dają ujemny/zerowy zwrot przed pojawieniem się efektów komplementarnych inwestycji.

https://hbr.org/2025/08/should-you-stop-investing-in-ai-for-now – „Harvard Business Review”: argumenty, dlaczego wiele strategii AI nie dostarcza dziś ROI i kiedy warto wstrzymać inwestycje do czasu przebudowy procesu.

https://hbr.org/2025/07/will-your-gen-ai-strategy-shape-your-future-or-derail-it – „HBR”: o ryzykach i wysokiej złożoności przejścia z pilota do skali; większość programów genAI nie dowozi zamierzonego efektu finansowego.

https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/06/the-effects-of-generative-ai-on-productivity-innovation-and-entrepreneurship_da1d085d/b21df222-en.pdf – OECD: przegląd badań nad wpływem genAI na produktywność i innowacje; podkreśla ograniczenia, niepewność uogólnienia wyników i potrzebę inwestycji komplementarnych.

https://www.imf.org/en/Publications/Staff-Discussion-Notes/Issues/2024/06/11/Broadening-the-Gains-from-Generative-AI-The-Role-of-Fiscal-Policies-549639 – IMF: ujęcie makro – AI może przynieść korzyści, ale rozkład zysków jest nierówny, a adopcja często generuje koszty i ryzyka zanim pojawią się trwałe efekty.

 

Zgłoś swój pomysł na artykuł

Więcej w tym dziale Zobacz wszystkie