Najnowsze badanie EY "AI Pulse 2025" pokazuje wyraźny rozdźwięk między podejściem zarządów firm a oczekiwaniami konsumentów w kwestii odpowiedzialnego wykorzystania sztucznej inteligencji. Choć 63% menedżerów deklaruje zrozumienie obaw klientów, tylko 23% uznaje brak odpowiedzialności za szkodliwe zastosowania AI za realny problem. Tymczasem 58% konsumentów widzi w tym poważne zagrożenie - różnica wynosi aż 35% Podobne dysproporcje widać w innych obszarach: Bezpieczeństwo AI - problem dla 32% zarządów vs. 64% konsumentów. Ochrona prywatności - 31% vs. 61%. Przestrzeganie regulacji - 23% vs. 52%. "Rozdźwięk pomiędzy obawami użytkowników oraz kadry zarządzającej może wynikać z różnych kwestii, jak niejasna komunikacja pomiędzy działem technologicznym a zarządem, bądź zbytnią pewnością siebie i wiarą we wdrożone rozwiązania. Przedsiębiorstwa, które jako pierwsze rozpoczęły procesy implementacyjne często robiły „krok w nieznane”, więc, jak wielu innowatorów, skupiły się na potencjale AI do uzyskania przewagi konkurencyjnej, a kwestie związane z ryzykiem mogły mieć dużo mniejszy priorytet" - mówi Radosław Frańczak, Consulting Sales Leader, EY Polska. "Warto jednak zaznaczyć - podejście konsumentów w sprawie AI jest jednoznacznie, co oznacza, że firmy będą musiały zaadresować kwestie związane z bezpieczeństwem i odpowiedzialnym wykorzystaniem AI. Te które tego nie zrobią stracą w efekcie przewagę zbudowaną dzięki swoim wcześniejszym działaniom" - dodaje. Im większa adopcja, tym większe rozbieżności Badanie pokazuje też, że im bardziej zaawansowane wdrożenie AI, tym większa pewność zarządów. W firmach dopiero integrujących technologię jedynie 51% liderów uważa swoje podejście za zgodne z oczekiwaniami klientów. Z kolei w organizacjach gdzie AI funkcjonuje już w biznesie, odsetek ten rośnie do 71%. Jednocześnie 51% firm wskazuje opracowanie ram zarządzania AI jako wyzwanie. Widać też lukę kompetencyjną: np. 88% chce korzystać z Synthetic Data Generation, ale tylko 58% zna związane z nim ryzyka. Eksperci EY zwracają uwagę, że niedostateczne uwzględnianie regulacji może być kosztowne. Unijne AI Act zakazuje m.in. systemów manipulacyjnych czy wprowadzających w błąd, a kary mogą sięgnąć 35 mln euro lub 7% globalnych przychodów. "Wdrożenie tej regulacji do unijnego porządku prawnego odbywa się stopniowo, ale już od 2 sierpnia tego roku zaczęły być stosowane przepisy dotyczące kar oraz modeli AI ogólnego przeznaczenia" - podsumowuje Justyna Wilczyńska-Baraniak, Partnerka EY Law, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych. O badaniu: EY przebadał - w marcu i kwietniu 2025 roku - 975 liderów C-suite odpowiedzialnych za AI w firmach o przychodach powyżej 1 mld USD, w 21 krajach na całym świecie.