Sztuczna inteligencjaBiznesRynek
AI Act zmieni zasady gry – jak przygotować organizację na nowe regulacje?
Blisko 90% Polaków korzystających z narzędzi AI w pracy opiera się na ogólnodostępnych rozwiązaniach. Tymczasem jedynie połowa firm w kraju wdrożyła wewnętrzne regulacje dotyczące ich stosowania. To poważna luka, która już za rok stanie się kluczowym wyzwaniem – w sierpniu 2026 roku wejdzie bowiem w życie unijne rozporządzenie AI Act, nakładające konkretne obowiązki na przedsiębiorstwa. Eksperci ostrzegają: im więcej punktowych, nieskoordynowanych narzędzi, tym trudniej będzie firmom spełnić wymogi nowych regulacji.

Przypomnijmy, że AI Act przyjęto w 2024 roku. To pierwszy na świecie tak szeroki zestaw regulacji dotyczących sztucznej inteligencji. Będzie on obowiązywał bezpośrednio we wszystkich krajach członkowskich UE – niezależnie od lokalnego prawa. Regulacje obejmują zarówno dostawców rozwiązań bazujących na AI, jak i podmioty, które ich używają. Większość nowych zasad zacznie obowiązywać już za rok, w sierpniu 2026 roku. To oznacza, że polskie firmy mają niewiele czasu na przygotowania. A te będą wymagające, bo skala wykorzystania AI przez pracowników w Polsce już dziś jest wyższa niż średnia światowa.
Z raportu KPMG „Sztuczna inteligencja w Polsce” wynika, że 69% osób korzysta z narzędzi AI regularnie (światowa średnia to 66%), a nawet 76% zauważa dzięki nim wzrost własnej wydajności. AI powoli staje się „niewidzialnym pracownikiem” – ponad połowa badanych przyznaje, że prezentuje treści wygenerowane przez AI jako własne. To zjawisko wymyka się spod kontroli działów HR i IT, tworząc ryzyko dla bezpieczeństwa danych.
Podobny entuzjazm widać także w decyzjach zarządów. Według raportu EY, co czwarta polska firma wdrożyła AI, a 59% traktuje jej implementację jako priorytet. Jednak tylko połowa przedsiębiorstw opracowała politykę regulującą użycie zarówno narzędzi wewnętrznych, jak i ogólnodostępnych.
„Wysoki stopień wykorzystania narzędzi AI przy braku wiedzy pracowników na temat zasad ich bezpiecznego używania, może prowadzić do niekontrolowanego (i często nieświadomego) udostępniania poufnych informacji. Dotyczy to zwłaszcza ogólnodostępnych modeli językowych. Firmy nie powinny zwlekać z wprowadzeniem ujednoliconych narzędzi bazujących na AI. Tylko wtedy będą miały możliwość bezpiecznego i kontrolowanego wykorzystania sztucznej inteligencji. Kolejnym krokiem powinno być opracowanie wewnętrznych polityk i szkoleń podnoszących świadomość zespołów” – komentuje Michał Rykiert, Chief Evangelist w firmie WEBCON.
AI Act zmniejszy stopień wykorzystania sztucznej inteligencji?
Unijne rozporządzenie reguluje wykorzystanie narzędzi AI w oparciu o ich dostęp do danych oraz wpływ na decyzje istotne dla człowieka. Firmy często wdrażają pojedyncze rozwiązania wyspecjalizowane w konkretnym zadaniu – np. chatboty wspierające obsługę klienta. Zgodnie z założeniami AI Act, wiele takich rozwiązań będzie klasyfikowanych jako stwarzające niskie lub minimalne ryzyko. W takim przypadku przedsiębiorstwa będą miały obowiązek poinformowania użytkownika, że ma do czynienia ze sztuczną inteligencją, a nie człowiekiem.
Dużo więcej obowiązków będą miały natomiast firmy wykorzystujące narzędzia, w których sztuczna inteligencja ma dostęp do wrażliwych danych lub może wpływać na decyzje o istotnym znaczeniu dla człowieka. Dotyczy to np. wykorzystania AI do selekcji kandydatów w procesie rekrutacyjnym czy analizy ryzyka kredytowego. W takich przypadkach rozwiązania będą kwalifikowane jako te o wysokim ryzyku. AI Act przewiduje wówczas szereg obowiązków, m.in. zapewnienie nadzoru nad wykorzystaniem takich narzędzi czy możliwości ich audytu. Kary za nieprzestrzeganie przepisów mogą sięgać nawet 35 mln euro lub 7% globalnego obrotu.
Punktowe wdrożenia to za mało
Obecnie wiele polskich firm korzysta z AI w sposób rozproszony – wdrażając pojedyncze rozwiązania odpowiadające na doraźne potrzeby. Takie podejście nie tylko utrudni spełnienie wymogów AI Act, ale także ogranicza potencjał technologii.
„Punktowo wdrażana sztuczna inteligencja nie wykorzystuje pełnego potencjału technologii. Systemy potrzebują wysokiej jakości informacji, by móc spełniać swoją rolę. Dlatego warto dążyć do tego, by rozwiązania oparte o AI działały w tle konkretnych procesów, analizując aktualne dane operacyjne i wydając na ich podstawie trafniejsze rekomendacje. Co równie istotne, aby zwiększyć bezpieczeństwo informacji i umożliwić ich skuteczną kontrolę, warto zcentralizować dane np. w jednej platformie” – wskazuje Michał Rykiert.
Co powinna zrobić firma już dziś? Eksperci wskazują kilka kluczowych kroków:
- Audyt obecnego wykorzystania AI – zidentyfikowanie narzędzi, z których korzystają pracownicy, w tym rozwiązań ogólnodostępnych.
- Wdrożenie polityki AI – określenie zasad bezpiecznego stosowania narzędzi i szkolenie pracowników.
- Centralizacja danych – uporządkowanie i zabezpieczenie informacji wykorzystywanych przez AI.
- Strategia rozwoju AI – wskazanie obszarów, w których sztuczna inteligencja może przynieść największe korzyści biznesowe.
- Wybór technologii – postawienie na ujednolicone, bezpieczne rozwiązania zamiast punktowych narzędzi.
Do sierpnia 2026 roku pozostał zaledwie rok – niewiele czasu, biorąc pod uwagę skalę wyzwań. Firmy w Polsce muszą nie tylko nadążyć za przepisami, ale też pogodzić entuzjazm pracowników z koniecznością kontrolowanego i bezpiecznego korzystania z AI.
AI Act nie zatrzyma rozwoju sztucznej inteligencji w biznesie, ale wymusi jej dojrzalsze, bardziej odpowiedzialne wdrożenia. A te – jeśli będą dobrze przygotowane – mogą okazać się szansą na budowanie przewagi konkurencyjnej, a nie tylko kosztownym obowiązkiem regulacyjnym.







