Powrót do artykułów
edukacja 9 maja 2026 · 14 min czytania

AI Act 2026 — co polskie MŚP musi wdrożyć i jak to się ma do RODO

2 sierpnia 2026 wchodzą pełne obowiązki transparentności i high-risk z AI Act. Praktyczny przewodnik dla biur rachunkowych i małych firm — bez prawniczego bełkotu.

Marcin Ołdak
Cover artykułu: AI Act 2026 — co polskie MŚP musi wdrożyć

Dwa lata temu AI Act brzmiał jak odległa bajka z Brukseli. Dzisiaj zostało niecałe 15 miesięcy do 2 sierpnia 2026, kiedy wchodzą obowiązki transparentności (art. 50) i pełny reżim dla systemów high-risk.

Z drugiej strony — 19 listopada 2025 Komisja Europejska złożyła propozycję Digital Omnibus, która chce przesunąć high-risk do grudnia 2027. Parlament debatuje od 26 marca 2026. Nic jeszcze formalnie nie przyjęte. Dopóki nie przyjmą, obowiązuje 2.08.2026.

W tym artykule rozkładam AI Act z perspektywy właściciela polskiego biura rachunkowego lub MŚP — co musisz zrobić, jak to się łączy z RODO i ile możesz zapłacić jak zignorujesz.

Disclaimer: to nie jest porada prawna. To praktyczna mapa dla właściciela firmy, żeby wiedział po co dzwonić do radcy i jakie pytania zadać. W sprawach specyficznych — radca prawny lub doradca podatkowy.

Chronologia AI Act — co kiedy wchodzi

AI Act to rozporządzenie 2024/1689, które weszło w życie 1 sierpnia 2024. Stosowanie podzielone jest na etapy:

FazaDataCo wchodzi
+6 miesięcy2.02.2025Zakazy (art. 5) + AI literacy (art. 4)
+12 miesięcy2.08.2025Organy notyfikujące, GPAI (Rozdz. V), zarządzanie, kary (art. 99-100)
+24 miesiące2.08.2026Pełne obowiązki high-risk (Załącznik III) + transparentność (art. 50)
+36 miesięcy2.08.2027Systemy AI w produktach regulowanych (Załącznik I)

Co to znaczy w praktyce dla MŚP

Od lutego 2025 — jeśli Twoja firma używa jakiejkolwiek formy AI (nawet ChatGPT w biurze), musisz zapewnić “wystarczającą wiedzę o AI” (AI literacy) u pracowników. To nie jest “certyfikat AI” — to udokumentowane szkolenie.

Od sierpnia 2025 — działają organy nadzorcze i kary. Polska procedura wdrożeniowa trwa (Ministerstwo Cyfryzacji proponuje Komisję Rozwoju i Bezpieczeństwa SI — monitoruj gov.pl/web/cyfryzacja/wdrozenie-aktu-o-ai).

Od 2 sierpnia 2026 — to data graniczna dla większości MŚP. Jeśli masz chatbot, voicebot, generujesz treści AI lub używasz systemu z listy high-risk — musisz mieć komplet obowiązków wdrożony.

Digital Omnibus — czy czekać?

Komisja Europejska proponuje przesunięcie daty high-risk na 2 grudnia 2027. Parlament Europejski rozpoczął debatę 26 marca 2026. Propozycja zakłada też uproszczenia dla MŚP.

Moje zdanie: nie planuj na podstawie propozycji, która może nie przejść. Planuj na 2.08.2026 i ciesz się, jeśli dostaniesz +16 miesięcy bonusu. Koszt “przygotowania za wcześnie” = niewielki. Koszt “za późno” = 14 000 EUR w dół (szczegóły poniżej).

Klasyfikacja ryzyka — 4 kategorie, do której należysz

AI Act dzieli systemy AI na 4 poziomy ryzyka. Większość obowiązków zależy właśnie od tej klasyfikacji.

1. Zakazane (art. 5, od 2.02.2025)

Całkowity zakaz. Dotyczy m.in.:

Standardowe biuro rachunkowe: nie dotyczy. Możesz spać spokojnie.

2. High-risk (Załącznik III)

Lista obszarów wysokiego ryzyka obejmuje:

Co to znaczy dla biura rachunkowego?

Wyjątek art. 6(3) — kiedy “z listy III” nie jest high-risk

System z Załącznika III może NIE być high-risk, jeśli spełnia jeden z warunków:

Ważny haczyk: wyjątek NIE stosuje się, gdy system profiluje osoby fizyczne. Wtedy zawsze high-risk.

3. Limited risk (art. 50)

Systemy z obowiązkiem transparentności:

Dla MŚP to najczęstszy scenariusz. Jeśli masz chatbot na stronie — jesteś tutaj.

4. Minimal risk

Filtry antyspamowe, autokorekta, rekomendacje muzyczne, gry. Bez specjalnych obowiązków AI Act (ale nadal RODO, jeśli przetwarzasz dane osobowe).

Deployer vs Provider — jesteś tym drugim (prawie na pewno)

AI Act rozróżnia dwie główne role. Od tego zależy 80% obowiązków.

99% polskich MŚP = deployer. Masz znacznie mniej obowiązków niż provider, ale nie zero.

Accidental provider — pułapka z art. 25

Deployer może niezamierzenie zostać providerem, jeśli:

  1. Umieści swoją nazwę/znak towarowy na systemie high-risk już wprowadzonym na rynek
  2. Istotnie zmodyfikuje system high-risk
  3. Zmieni przeznaczenie systemu tak, że staje się high-risk

Przykład z życia: biuro rachunkowe bierze Claude API, buduje pipeline OCR + klasyfikacja, a potem sprzedaje go innym biurom pod nazwą “ExpertBookAI”. W tym momencie staje się providerem z pełnym pakietem obowiązków (system zarządzania ryzykiem, ocena zgodności, rejestracja w EU Database).

Jeśli planujesz sprzedawać swój agent AI jako produkt innym — zaplanuj compliance od razu, nie po fakcie.

Obowiązki — tabela Provider vs Deployer (high-risk)

ObowiązekProviderDeployer
System zarządzania ryzykiem (art. 9)TAKNIE
Dokumentacja techniczna (art. 11)TAKŻądanie od providera
Logowanie zdarzeń (art. 12)ProjektujePrzechowuje
Nadzór ludzki (art. 14)ProjektujeZapewnia w praktyce
Ocena zgodności (art. 43)TAKNIE (tylko publiczne org. rejestrują)
AI literacy (art. 4)TAKTAK
Powiadomienie pracowników (art. 26(7))TAK przed użyciem
FRIA (art. 27)TAK (publiczne + wybrane prywatne)

Deployer MŚP ma lżejszy zakres, ale nie zerowy. Szczególnie: AI literacy, nadzór ludzki w praktyce, logowanie i powiadomienie pracowników.

AI Act vs RODO — stosujesz oba równolegle

Art. 2(7) AI Act mówi wprost: nie narusza przepisów o ochronie danych osobowych. Czyli RODO stosujesz tak jak do tej pory, a AI Act nakłada się na górze.

RODOAI Act
CelOchrona danych osobowychBezpieczeństwo + prawa podstawowe
ObiektPrzetwarzanieSystemy AI
RolaAdministrator / procesorProvider / deployer
Nadzór PLUODOKomisja Rozwoju i Bezpieczeństwa SI

DPIA (art. 35 RODO) vs FRIA (art. 27 AI Act)

To dwa różne dokumenty z różnym zakresem:

Art. 27(4) AI Act pozwala na zintegrowanie FRIA z istniejącym DPIA — ale to nie to samo dokumentu. To jedno uzupełnia drugie.

Dla biura rachunkowego z OCR faktur: DPIA — tak, jeśli masz dużą skalę (10 000+ faktur miesięcznie). FRIA — zazwyczaj nie (OCR nie jest high-risk, więc obowiązek nie powstaje).

Art. 22 RODO + Art. 86 AI Act — prawa osób

Art. 22 RODO mówi, że człowiek ma prawo nie być przedmiotem decyzji opartej wyłącznie na automatycznym przetwarzaniu, jeśli decyzja wywołuje skutki prawne lub istotnie wpływa.

Art. 86 AI Act dodaje: osoba ma prawo do wyjaśnienia indywidualnych decyzji dla systemów high-risk z Załącznika III.

Digital Omnibus (listopad 2025) proponuje zmianę filozofii art. 22 — ale do momentu formalnego przyjęcia nic się nie zmienia.

Art. 10(5) AI Act — wyjątek od RODO

Rzecz techniczna, ale warta wzmianki: art. 10(5) AI Act pozwala przetwarzać dane szczególnej kategorii (art. 9 RODO — pochodzenie, zdrowie, poglądy) w celu wykrywania uprzedzeń (bias detection) przy tworzeniu AI. To wyjątek istotny głównie dla providerów.

Uzasadniony interes (art. 6(1)(f) RODO) dla AI

Europejska Rada Ochrony Danych (EDPB) w opinii z 18 grudnia 2024 potwierdziła: uzasadniony interes może być podstawą przetwarzania danych w AI, ale wymaga testu trójstopniowego:

  1. Czy interes jest legalny?
  2. Czy przetwarzanie jest niezbędne dla tego interesu?
  3. Czy prawa osoby nie przeważają nad interesem administratora?

Dla biura rachunkowego: dla standardowego OCR faktur łatwiej oprzeć się na wykonaniu umowy (art. 6(1)(b) RODO) niż na uzasadnionym interesie.

Transparentność art. 50 — co Twój chatbot musi mówić

To sekcja, która dotyka najwięcej MŚP. Od 2 sierpnia 2026 każdy, kto używa AI w komunikacji z klientami, musi zapewnić transparentność.

SytuacjaKto ma obowiązekCo konkretnie zrobić
Chatbot obsługa klientówProvider + DeployerInformacja przed 1. interakcją
Voicebot telefonicznyProvider + DeployerWerbalnie: “rozmawiasz z AI”
E-mail generowany AI (publiczny interes)DeployerOznaczenie — chyba że człowiek przegląda
Deepfake (obraz/wideo/audio)DeployerWyraźne oznaczenie
Rozpoznawanie emocjiDeployerInformacja osób przed użyciem

Kiedy obowiązek NIE powstaje:

Praktyczne wdrożenie dla biura rachunkowego

Masz chatbot FAQ na stronie? Konkretne kroki:

  1. Banner przed pierwszą wiadomością: “Rozmawiasz z asystentem AI. Odpowiedzi generowane automatycznie na podstawie bazy FAQ. W sprawach indywidualnych — [kontakt z człowiekiem]”.
  2. Oznaczenie wizualne (ikona bota, inny kolor) w interfejsie.
  3. Link do polityki AI w stopce.

Masz voicebot na infolinii? Pierwsze zdanie: “Dzień dobry, rozmawia Pan/Pani z asystentem głosowym biura X. W każdej chwili można poprosić o połączenie z człowiekiem”.

Wysyłasz e-maile generowane przez AI bez ludzkiej korekty? Dodaj w stopce: “Ta wiadomość została wygenerowana z pomocą AI i przejrzana przez [imię]”.

Jeśli każdy e-mail jest przeglądany przez człowieka — obowiązek znika.

Kary dla MŚP — zasada “niższa z dwóch”

AI Act przewiduje kary w skali GDPR+. Wysokość zależy od naruszenia i wielkości firmy.

Rodzaj naruszeniaWiększa firmaMŚP
Zakazane praktyki (art. 5)35 mln EUR lub 7% obrotu — WYŻSZENIŻSZE z dwóch
High-risk / obowiązki deployer / GPAI15 mln EUR lub 3% obrotu — WYŻSZENIŻSZE z dwóch
Wprowadzenie w błąd organów7,5 mln EUR lub 1% obrotu — WYŻSZENIŻSZE z dwóch

Dla MŚP (art. 99(6)): kara to niższa z dwóch wartości. To ogromna różnica.

Konkretny przykład — biuro rachunkowe 2 mln zł obrotu

Biuro ma 2 mln zł obrotu rocznie (~470 000 EUR przy kursie 4,25).

Narusza obowiązki deployer (np. brak powiadomienia pracowników o użyciu AI, art. 26(7)):

Dla dużej firmy z obrotem 1 mld EUR ta sama kara wynosiłaby 30 mln EUR (wyższa z dwóch: 3% × 1 mld = 30 mln vs 15 mln). Różnica: 2000x.

Wniosek: AI Act nie zrujnuje małej firmy jednym naruszeniem. Ale 14 000 EUR = koszt księgowej na rok. Lepiej wydać 2000 zł na dokumentację i spokój.

Biuro rachunkowe z OCR + LLM — analiza case

Typowy stack MJ.OLDAK dla biura rachunkowego:

Azure Document Intelligence (OCR) + Claude Sonnet (post-processing) → strukturalny JSON → import do Comarch Optima / wFirma

Klasyfikacja ryzyka:

Czy to high-risk?

Najprawdopodobniej NIE, ale sprawdźmy kategorię po kategorii:

System NIE jest high-risk, jeśli:

System MOŻE stać się high-risk, jeśli:

Rekomendacja: udokumentuj w wewnętrznej ocenie, że korzystasz z wyjątku art. 6(3)(a) lub (d). Ta ocena to 2-3 strony A4. Zapisz, podpisz, trzymaj w segregatorze “AI Act”.

Jeśli budujesz własny stack i chcesz zobaczyć, jak wygląda pipeline z human-in-the-loop w praktyce — opisałem to w osobnym tekście: Stack pod agentów AI: Claude, n8n, Azure Document Intelligence.

Tajemnica księgowego i dane klientów — ostry temat

W Polsce księgowy nie ma ustawowej tajemnicy zawodowej (inaczej niż adwokat czy doradca podatkowy). Obowiązek poufności wynika z:

Trzy konsekwencje dla AI:

  1. Wysyłka danych do API AI = powierzenie w rozumieniu RODO. Wymaga umowy DPA (Data Processing Agreement) z dostawcą + standardowe klauzule umowne (SCC) jeśli dane lecą do USA.
  2. Shadow AI pracowników = niedopuszczalne. Księgowa wrzucająca faktury do prywatnego ChatGPT bez DPA to naruszenie umowy z klientem i RODO.
  3. Umowa z dostawcą AI musi wykluczać trening na danych klientów. Anthropic (Claude API) ma to w domyślnym kontrakcie — OpenAI w API też, ale warto zweryfikować plan i checkboxy.

Checklist 10 kroków do 2.08.2026

To konkretna mapa drogowa dla właściciela biura rachunkowego lub MŚP. Zacznij od góry, zrób jeden krok na tydzień.

  1. Inwentaryzacja wszystkich systemów AI używanych w firmie — w tym shadow AI (prywatne konta ChatGPT pracowników, narzędzia z rozszerzeń przeglądarki, wbudowane funkcje AI w Microsoft 365, Google Workspace).
  2. Klasyfikacja ryzyka każdego systemu — zakazany / high-risk / limited / minimal.
  3. DPA z dostawcami AI (Anthropic, OpenAI, Microsoft, Google). Jeśli nie masz — podpisz przed pierwszym użyciem na danych klienta.
  4. Aktualizacja klauzul informacyjnych RODO u klientów — dopisz informację, że używasz AI do przetwarzania dokumentów, z jakim celem i z kim dzielisz dane.
  5. Ocena art. 6(3) dla systemów granicznych — dokument wewnętrzny uzasadniający, że Twój system nie jest high-risk.
  6. Wdrożenie transparentności art. 50 — chatbot, voicebot, oznaczenia e-maili generowanych.
  7. Szkolenie AI literacy dla pracowników — obowiązek od 2.02.2025. Zapisana lista obecności, agenda, podpisy.
  8. Polityka używania AI w firmie — pisemny dokument: co wolno, czego nie wolno, gdzie zgłaszać problemy.
  9. DPIA dla systemów przetwarzających dane w dużej skali.
  10. Monitoring legislacyjny — śledź Digital Omnibus i polską ustawę wdrożeniową. Kalendarz z datami kluczowymi.

Jeśli dopiero zastanawiasz się nad zakupem automatyzacji AI i chcesz zadać właściwe pytania dostawcy — polecam 5 pytań przed zakupem automatyzacji AI.

Najczęściej zadawane pytania

Czy muszę rejestrować systemy AI w EU Database?

Zazwyczaj nie, jeśli jesteś deployerem MŚP. Rejestracja w bazie dotyczy głównie providerów systemów high-risk i publicznych organów używających systemów z Załącznika III. Prywatne biuro rachunkowe z OCR faktur — nie rejestruje.

Czy AI Act dotyczy małej firmy (3 osoby)?

Tak. AI Act nie ma minimalnego progu wielkości. Ale kary są proporcjonalnie niższe (zasada “niższa z dwóch”) i obowiązki dla deployera są lżejsze niż dla providera. Dla 3-osobowej firmy realna lista to: AI literacy, art. 50 transparentność, DPA z dostawcą, polityka AI.

Czy Claude API to GPAI (general-purpose AI)?

Tak. Anthropic jest providerem GPAI. Jeśli używasz Claude API w firmie, jesteś deployerem korzystającym z modelu GPAI. Obowiązki GPAI (Rozdz. V AI Act, od 2.08.2025) spadają głównie na Anthropic, nie na Ciebie.

Co znaczy “nadzór ludzki” w praktyce?

Art. 14 AI Act wymaga, żeby system high-risk był pod skutecznym nadzorem człowieka. W praktyce: konkretna osoba z kompetencjami, prawo weta nad decyzjami AI, możliwość wyłączenia systemu bez restartu całej infrastruktury, dokumentacja interwencji. Dla systemów nie-high-risk obowiązek prawny nie istnieje — ale human-in-the-loop to dobry design tak czy inaczej.

Czy muszę podpisać AI Pact?

Nie, to dobrowolna inicjatywa Komisji Europejskiej dla firm, które chcą pokazać wczesne wdrożenie AI Act. Sensowna dla dużych firm i vendorów AI. Dla polskiego biura rachunkowego — marketing, nie obowiązek.

Czy wystarczy, że mam RODO compliance — to samo pokrywa AI Act?

Nie. RODO i AI Act mają różne cele (dane osobowe vs bezpieczeństwo systemów AI i prawa podstawowe) i różne obowiązki. Stosujesz oba równolegle. DPIA i FRIA to różne dokumenty. Klauzula informacyjna RODO i oznaczenie chatbota art. 50 to różne rzeczy.

Co jeśli używam tylko wbudowanych AI (Copilot w Microsoft 365, Gemini w Gmail)?

Nadal jesteś deployerem. Microsoft i Google to providerzy. Twoje obowiązki: AI literacy, polityka używania AI, ewentualnie informowanie klientów jeśli generujesz dla nich treści. Plus DPA już najczęściej masz w ramach głównych umów z tymi dostawcami — warto zweryfikować zapisy.

Kiedy ostateczna polska ustawa wdrożeniowa?

Nie wiadomo na pewno. Ministerstwo Cyfryzacji pracuje nad projektem. Termin powołania polskiego organu (Komisji Rozwoju i Bezpieczeństwa SI) minął 2.08.2025. Monitoruj gov.pl/web/cyfryzacja/wdrozenie-aktu-o-ai — tam publikowane są konsultacje i projekty.

Źródła i dalsza lektura

Następne kroki

Jeśli masz czucie, że Twoje biuro jest “gdzieś w szarej strefie” i nie wiesz, czy używany OCR to high-risk czy nie — napisz. W 30 minut bezpłatnej konsultacji zmapujemy Twoje systemy, sklasyfikujemy ryzyko i wskażemy 3 najpilniejsze kroki. Kontakt: contact@mjoldak.com.

Jeśli chcesz zacząć od zrozumienia samej technologii, zanim wejdziesz w compliance — polecam Czym jest agent AI? Praktyczne wyjaśnienie.

AI Act nie jest po to, żeby zatrzymać małe firmy przed używaniem AI. Jest po to, żeby duże firmy nie zbudowały systemów, które szkodzą ludziom. MŚP płaci za to niewielką cenę — trochę dokumentacji i trochę dyscypliny. Warto.


Disclaimer: Ten artykuł nie stanowi porady prawnej. Przedstawia praktyczne zrozumienie AI Act z perspektywy właściciela firmy, nie interpretację prawniczą. W sprawach indywidualnych — radca prawny specjalizujący się w prawie nowych technologii lub doradca podatkowy.

Tagi

Newsletter · 1× w miesiącu

Dostawaj esencję.

Najlepsze artykuły z miesiąca + 1 case study z biur rachunkowych. Bez spamu, bez sprzedaży.

Twój email idzie tylko do mnie. Wypisanie 1 klikiem.

Powiązane artykuły.