Sztuczna inteligencjaBiznesRynek
Raport EY: rozbieżności w postrzeganiu AI przez biznes i konsumentów
Najnowsze badanie EY „AI Pulse 2025” pokazuje wyraźny rozdźwięk między podejściem zarządów firm a oczekiwaniami konsumentów w kwestii odpowiedzialnego wykorzystania sztucznej inteligencji.

Choć 63% menedżerów deklaruje zrozumienie obaw klientów, tylko 23% uznaje brak odpowiedzialności za szkodliwe zastosowania AI za realny problem. Tymczasem 58% konsumentów widzi w tym poważne zagrożenie – różnica wynosi aż 35%
Podobne dysproporcje widać w innych obszarach:
- Bezpieczeństwo AI – problem dla 32% zarządów vs. 64% konsumentów.
- Ochrona prywatności – 31% vs. 61%.
- Przestrzeganie regulacji – 23% vs. 52%.
„Rozdźwięk pomiędzy obawami użytkowników oraz kadry zarządzającej może wynikać z różnych kwestii, jak niejasna komunikacja pomiędzy działem technologicznym a zarządem, bądź zbytnią pewnością siebie i wiarą we wdrożone rozwiązania. Przedsiębiorstwa, które jako pierwsze rozpoczęły procesy implementacyjne często robiły „krok w nieznane”, więc, jak wielu innowatorów, skupiły się na potencjale AI do uzyskania przewagi konkurencyjnej, a kwestie związane z ryzykiem mogły mieć dużo mniejszy priorytet” – mówi Radosław Frańczak, Consulting Sales Leader, EY Polska. „Warto jednak zaznaczyć – podejście konsumentów w sprawie AI jest jednoznacznie, co oznacza, że firmy będą musiały zaadresować kwestie związane z bezpieczeństwem i odpowiedzialnym wykorzystaniem AI. Te które tego nie zrobią stracą w efekcie przewagę zbudowaną dzięki swoim wcześniejszym działaniom” – dodaje.
Im większa adopcja, tym większe rozbieżności
Badanie pokazuje też, że im bardziej zaawansowane wdrożenie AI, tym większa pewność zarządów. W firmach dopiero integrujących technologię jedynie 51% liderów uważa swoje podejście za zgodne z oczekiwaniami klientów. Z kolei w organizacjach gdzie AI funkcjonuje już w biznesie, odsetek ten rośnie do 71%.
Jednocześnie 51% firm wskazuje opracowanie ram zarządzania AI jako wyzwanie. Widać też lukę kompetencyjną: np. 88% chce korzystać z Synthetic Data Generation, ale tylko 58% zna związane z nim ryzyka.
Eksperci EY zwracają uwagę, że niedostateczne uwzględnianie regulacji może być kosztowne. Unijne AI Act zakazuje m.in. systemów manipulacyjnych czy wprowadzających w błąd, a kary mogą sięgnąć 35 mln euro lub 7% globalnych przychodów.
„Wdrożenie tej regulacji do unijnego porządku prawnego odbywa się stopniowo, ale już od 2 sierpnia tego roku zaczęły być stosowane przepisy dotyczące kar oraz modeli AI ogólnego przeznaczenia” – podsumowuje Justyna Wilczyńska-Baraniak, Partnerka EY Law, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych.
O badaniu: EY przebadał – w marcu i kwietniu 2025 roku – 975 liderów C-suite odpowiedzialnych za AI w firmach o przychodach powyżej 1 mld USD, w 21 krajach na całym świecie.







