AI Act 2026 — co polskie MŚP musi wdrożyć i jak to się ma do RODO
2 sierpnia 2026 wchodzą pełne obowiązki transparentności i high-risk z AI Act. Praktyczny przewodnik dla biur rachunkowych i małych firm — bez prawniczego bełkotu.
Dwa lata temu AI Act brzmiał jak odległa bajka z Brukseli. Dzisiaj zostało niecałe 15 miesięcy do 2 sierpnia 2026, kiedy wchodzą obowiązki transparentności (art. 50) i pełny reżim dla systemów high-risk.
Z drugiej strony — 19 listopada 2025 Komisja Europejska złożyła propozycję Digital Omnibus, która chce przesunąć high-risk do grudnia 2027. Parlament debatuje od 26 marca 2026. Nic jeszcze formalnie nie przyjęte. Dopóki nie przyjmą, obowiązuje 2.08.2026.
W tym artykule rozkładam AI Act z perspektywy właściciela polskiego biura rachunkowego lub MŚP — co musisz zrobić, jak to się łączy z RODO i ile możesz zapłacić jak zignorujesz.
Disclaimer: to nie jest porada prawna. To praktyczna mapa dla właściciela firmy, żeby wiedział po co dzwonić do radcy i jakie pytania zadać. W sprawach specyficznych — radca prawny lub doradca podatkowy.
Chronologia AI Act — co kiedy wchodzi
AI Act to rozporządzenie 2024/1689, które weszło w życie 1 sierpnia 2024. Stosowanie podzielone jest na etapy:
| Faza | Data | Co wchodzi |
|---|---|---|
| +6 miesięcy | 2.02.2025 | Zakazy (art. 5) + AI literacy (art. 4) |
| +12 miesięcy | 2.08.2025 | Organy notyfikujące, GPAI (Rozdz. V), zarządzanie, kary (art. 99-100) |
| +24 miesiące | 2.08.2026 | Pełne obowiązki high-risk (Załącznik III) + transparentność (art. 50) |
| +36 miesięcy | 2.08.2027 | Systemy AI w produktach regulowanych (Załącznik I) |
Co to znaczy w praktyce dla MŚP
Od lutego 2025 — jeśli Twoja firma używa jakiejkolwiek formy AI (nawet ChatGPT w biurze), musisz zapewnić “wystarczającą wiedzę o AI” (AI literacy) u pracowników. To nie jest “certyfikat AI” — to udokumentowane szkolenie.
Od sierpnia 2025 — działają organy nadzorcze i kary. Polska procedura wdrożeniowa trwa (Ministerstwo Cyfryzacji proponuje Komisję Rozwoju i Bezpieczeństwa SI — monitoruj gov.pl/web/cyfryzacja/wdrozenie-aktu-o-ai).
Od 2 sierpnia 2026 — to data graniczna dla większości MŚP. Jeśli masz chatbot, voicebot, generujesz treści AI lub używasz systemu z listy high-risk — musisz mieć komplet obowiązków wdrożony.
Digital Omnibus — czy czekać?
Komisja Europejska proponuje przesunięcie daty high-risk na 2 grudnia 2027. Parlament Europejski rozpoczął debatę 26 marca 2026. Propozycja zakłada też uproszczenia dla MŚP.
Moje zdanie: nie planuj na podstawie propozycji, która może nie przejść. Planuj na 2.08.2026 i ciesz się, jeśli dostaniesz +16 miesięcy bonusu. Koszt “przygotowania za wcześnie” = niewielki. Koszt “za późno” = 14 000 EUR w dół (szczegóły poniżej).
Klasyfikacja ryzyka — 4 kategorie, do której należysz
AI Act dzieli systemy AI na 4 poziomy ryzyka. Większość obowiązków zależy właśnie od tej klasyfikacji.
1. Zakazane (art. 5, od 2.02.2025)
Całkowity zakaz. Dotyczy m.in.:
- Manipulacji podprogowej (ukryta perswazja omijająca świadomość)
- Social scoring (ocenianie ludzi na podstawie zachowań społecznych)
- Rozpoznawania emocji w miejscu pracy lub edukacji
- Tworzenia baz biometrycznych przez scraping zdjęć z internetu
Standardowe biuro rachunkowe: nie dotyczy. Możesz spać spokojnie.
2. High-risk (Załącznik III)
Lista obszarów wysokiego ryzyka obejmuje:
- Biometria i identyfikacja
- Krytyczna infrastruktura
- Edukacja (ocena uczniów, wstęp na studia)
- Zatrudnienie (selekcja CV, ocena pracowników)
- Dostęp do usług prywatnych (scoring kredytowy!)
- Egzekwowanie prawa, migracja, wymiar sprawiedliwości
Co to znaczy dla biura rachunkowego?
- AI do selekcji CV kandydatów = high-risk. Obowiązki pełne.
- AI do OCR faktur = NIE high-risk (przy spełnieniu warunków art. 6(3), o tym za chwilę).
- AI do scoringu wiarygodności kontrahenta = potencjalnie high-risk (podobne do scoringu kredytowego).
Wyjątek art. 6(3) — kiedy “z listy III” nie jest high-risk
System z Załącznika III może NIE być high-risk, jeśli spełnia jeden z warunków:
- (a) wykonuje wąskie zadanie proceduralne
- (b) ulepsza wynik ukończonej wcześniej pracy człowieka
- (c) wykrywa wzorce decyzyjne bez zastępowania oceny człowieka
- (d) wykonuje czynność przygotowawczą do oceny istotnej dla celów z Zał. III
Ważny haczyk: wyjątek NIE stosuje się, gdy system profiluje osoby fizyczne. Wtedy zawsze high-risk.
3. Limited risk (art. 50)
Systemy z obowiązkiem transparentności:
- Chatboty obsługujące ludzi
- Generatory treści AI (teksty, obrazy, wideo, audio)
- Deepfakes
- Systemy rozpoznawania emocji (gdy nie w pracy/edukacji — tam zakazane)
Dla MŚP to najczęstszy scenariusz. Jeśli masz chatbot na stronie — jesteś tutaj.
4. Minimal risk
Filtry antyspamowe, autokorekta, rekomendacje muzyczne, gry. Bez specjalnych obowiązków AI Act (ale nadal RODO, jeśli przetwarzasz dane osobowe).
Deployer vs Provider — jesteś tym drugim (prawie na pewno)
AI Act rozróżnia dwie główne role. Od tego zależy 80% obowiązków.
- Provider (dostawca) — opracowuje system AI lub zleca jego opracowanie i wprowadza pod własną nazwą. Przykłady: Anthropic (Claude), OpenAI (GPT), Microsoft (Azure Document Intelligence).
- Deployer (użytkownik wdrażający) — używa systemu AI pod swoim nadzorem w ramach działalności. Przykłady: biuro rachunkowe używające OCR, sklep e-commerce z chatbotem, kancelaria prawna generująca streszczenia.
99% polskich MŚP = deployer. Masz znacznie mniej obowiązków niż provider, ale nie zero.
Accidental provider — pułapka z art. 25
Deployer może niezamierzenie zostać providerem, jeśli:
- Umieści swoją nazwę/znak towarowy na systemie high-risk już wprowadzonym na rynek
- Istotnie zmodyfikuje system high-risk
- Zmieni przeznaczenie systemu tak, że staje się high-risk
Przykład z życia: biuro rachunkowe bierze Claude API, buduje pipeline OCR + klasyfikacja, a potem sprzedaje go innym biurom pod nazwą “ExpertBookAI”. W tym momencie staje się providerem z pełnym pakietem obowiązków (system zarządzania ryzykiem, ocena zgodności, rejestracja w EU Database).
Jeśli planujesz sprzedawać swój agent AI jako produkt innym — zaplanuj compliance od razu, nie po fakcie.
Obowiązki — tabela Provider vs Deployer (high-risk)
| Obowiązek | Provider | Deployer |
|---|---|---|
| System zarządzania ryzykiem (art. 9) | TAK | NIE |
| Dokumentacja techniczna (art. 11) | TAK | Żądanie od providera |
| Logowanie zdarzeń (art. 12) | Projektuje | Przechowuje |
| Nadzór ludzki (art. 14) | Projektuje | Zapewnia w praktyce |
| Ocena zgodności (art. 43) | TAK | NIE (tylko publiczne org. rejestrują) |
| AI literacy (art. 4) | TAK | TAK |
| Powiadomienie pracowników (art. 26(7)) | — | TAK przed użyciem |
| FRIA (art. 27) | — | TAK (publiczne + wybrane prywatne) |
Deployer MŚP ma lżejszy zakres, ale nie zerowy. Szczególnie: AI literacy, nadzór ludzki w praktyce, logowanie i powiadomienie pracowników.
AI Act vs RODO — stosujesz oba równolegle
Art. 2(7) AI Act mówi wprost: nie narusza przepisów o ochronie danych osobowych. Czyli RODO stosujesz tak jak do tej pory, a AI Act nakłada się na górze.
| RODO | AI Act | |
|---|---|---|
| Cel | Ochrona danych osobowych | Bezpieczeństwo + prawa podstawowe |
| Obiekt | Przetwarzanie | Systemy AI |
| Rola | Administrator / procesor | Provider / deployer |
| Nadzór PL | UODO | Komisja Rozwoju i Bezpieczeństwa SI |
DPIA (art. 35 RODO) vs FRIA (art. 27 AI Act)
To dwa różne dokumenty z różnym zakresem:
- DPIA — ocena wpływu przetwarzania na dane osobowe. Pytania: ile danych, jakiej kategorii, jakie ryzyko wycieku, czy to dane wrażliwe.
- FRIA — ocena wpływu na prawa podstawowe. Pytania: czy system może dyskryminować, naruszać godność, wpływać na dostęp do usług publicznych.
Art. 27(4) AI Act pozwala na zintegrowanie FRIA z istniejącym DPIA — ale to nie to samo dokumentu. To jedno uzupełnia drugie.
Dla biura rachunkowego z OCR faktur: DPIA — tak, jeśli masz dużą skalę (10 000+ faktur miesięcznie). FRIA — zazwyczaj nie (OCR nie jest high-risk, więc obowiązek nie powstaje).
Art. 22 RODO + Art. 86 AI Act — prawa osób
Art. 22 RODO mówi, że człowiek ma prawo nie być przedmiotem decyzji opartej wyłącznie na automatycznym przetwarzaniu, jeśli decyzja wywołuje skutki prawne lub istotnie wpływa.
Art. 86 AI Act dodaje: osoba ma prawo do wyjaśnienia indywidualnych decyzji dla systemów high-risk z Załącznika III.
Digital Omnibus (listopad 2025) proponuje zmianę filozofii art. 22 — ale do momentu formalnego przyjęcia nic się nie zmienia.
Art. 10(5) AI Act — wyjątek od RODO
Rzecz techniczna, ale warta wzmianki: art. 10(5) AI Act pozwala przetwarzać dane szczególnej kategorii (art. 9 RODO — pochodzenie, zdrowie, poglądy) w celu wykrywania uprzedzeń (bias detection) przy tworzeniu AI. To wyjątek istotny głównie dla providerów.
Uzasadniony interes (art. 6(1)(f) RODO) dla AI
Europejska Rada Ochrony Danych (EDPB) w opinii z 18 grudnia 2024 potwierdziła: uzasadniony interes może być podstawą przetwarzania danych w AI, ale wymaga testu trójstopniowego:
- Czy interes jest legalny?
- Czy przetwarzanie jest niezbędne dla tego interesu?
- Czy prawa osoby nie przeważają nad interesem administratora?
Dla biura rachunkowego: dla standardowego OCR faktur łatwiej oprzeć się na wykonaniu umowy (art. 6(1)(b) RODO) niż na uzasadnionym interesie.
Transparentność art. 50 — co Twój chatbot musi mówić
To sekcja, która dotyka najwięcej MŚP. Od 2 sierpnia 2026 każdy, kto używa AI w komunikacji z klientami, musi zapewnić transparentność.
| Sytuacja | Kto ma obowiązek | Co konkretnie zrobić |
|---|---|---|
| Chatbot obsługa klientów | Provider + Deployer | Informacja przed 1. interakcją |
| Voicebot telefoniczny | Provider + Deployer | Werbalnie: “rozmawiasz z AI” |
| E-mail generowany AI (publiczny interes) | Deployer | Oznaczenie — chyba że człowiek przegląda |
| Deepfake (obraz/wideo/audio) | Deployer | Wyraźne oznaczenie |
| Rozpoznawanie emocji | Deployer | Informacja osób przed użyciem |
Kiedy obowiązek NIE powstaje:
- Gdy jest “oczywiste”, że rozmowa z AI (bot na stronie wyraźnie oznaczony jako bot)
- Systemy do wykrywania przestępstw nieudostępniane publicznie
Praktyczne wdrożenie dla biura rachunkowego
Masz chatbot FAQ na stronie? Konkretne kroki:
- Banner przed pierwszą wiadomością: “Rozmawiasz z asystentem AI. Odpowiedzi generowane automatycznie na podstawie bazy FAQ. W sprawach indywidualnych — [kontakt z człowiekiem]”.
- Oznaczenie wizualne (ikona bota, inny kolor) w interfejsie.
- Link do polityki AI w stopce.
Masz voicebot na infolinii? Pierwsze zdanie: “Dzień dobry, rozmawia Pan/Pani z asystentem głosowym biura X. W każdej chwili można poprosić o połączenie z człowiekiem”.
Wysyłasz e-maile generowane przez AI bez ludzkiej korekty? Dodaj w stopce: “Ta wiadomość została wygenerowana z pomocą AI i przejrzana przez [imię]”.
Jeśli każdy e-mail jest przeglądany przez człowieka — obowiązek znika.
Kary dla MŚP — zasada “niższa z dwóch”
AI Act przewiduje kary w skali GDPR+. Wysokość zależy od naruszenia i wielkości firmy.
| Rodzaj naruszenia | Większa firma | MŚP |
|---|---|---|
| Zakazane praktyki (art. 5) | 35 mln EUR lub 7% obrotu — WYŻSZE | NIŻSZE z dwóch |
| High-risk / obowiązki deployer / GPAI | 15 mln EUR lub 3% obrotu — WYŻSZE | NIŻSZE z dwóch |
| Wprowadzenie w błąd organów | 7,5 mln EUR lub 1% obrotu — WYŻSZE | NIŻSZE z dwóch |
Dla MŚP (art. 99(6)): kara to niższa z dwóch wartości. To ogromna różnica.
Konkretny przykład — biuro rachunkowe 2 mln zł obrotu
Biuro ma 2 mln zł obrotu rocznie (~470 000 EUR przy kursie 4,25).
Narusza obowiązki deployer (np. brak powiadomienia pracowników o użyciu AI, art. 26(7)):
- Max kara korporacyjna: 3% × 470 000 EUR = 14 100 EUR (~60 000 zł)
- Alternatywa: 15 mln EUR
- MŚP płaci niższą = 14 100 EUR
Dla dużej firmy z obrotem 1 mld EUR ta sama kara wynosiłaby 30 mln EUR (wyższa z dwóch: 3% × 1 mld = 30 mln vs 15 mln). Różnica: 2000x.
Wniosek: AI Act nie zrujnuje małej firmy jednym naruszeniem. Ale 14 000 EUR = koszt księgowej na rok. Lepiej wydać 2000 zł na dokumentację i spokój.
Biuro rachunkowe z OCR + LLM — analiza case
Typowy stack MJ.OLDAK dla biura rachunkowego:
Azure Document Intelligence (OCR) + Claude Sonnet (post-processing) → strukturalny JSON → import do Comarch Optima / wFirma
Klasyfikacja ryzyka:
Czy to high-risk?
Najprawdopodobniej NIE, ale sprawdźmy kategorię po kategorii:
- Załącznik III 5(b) — “ocena zdolności kredytowej” — OCR+LLM nie ocenia zdolności kredytowej. Tylko ekstrahuje dane z dokumentu.
- Art. 6(3)(a) — wąskie zadanie proceduralne — TAK, ekstrakcja pól faktury to wąskie, dobrze zdefiniowane zadanie.
- Art. 6(3)(d) — czynność przygotowawcza — TAK, dane są przygotowywane dla weryfikacji przez księgową.
System NIE jest high-risk, jeśli:
- OCR + LLM ekstrahuje dane i przekazuje do weryfikacji człowieka
- Nie podejmuje autonomicznie decyzji z wpływem prawnym/finansowym
- Nie profiluje osób fizycznych
- Nie ocenia zdolności kredytowej ani wiarygodności kontrahenta
System MOŻE stać się high-risk, jeśli:
- Automatycznie zatwierdza deklaracje podatkowe bez weryfikacji księgowej
- Ocenia “wiarygodność” kontrahenta i blokuje współpracę
- Używa danych z faktur do scoringu klientów
Rekomendacja: udokumentuj w wewnętrznej ocenie, że korzystasz z wyjątku art. 6(3)(a) lub (d). Ta ocena to 2-3 strony A4. Zapisz, podpisz, trzymaj w segregatorze “AI Act”.
Jeśli budujesz własny stack i chcesz zobaczyć, jak wygląda pipeline z human-in-the-loop w praktyce — opisałem to w osobnym tekście: Stack pod agentów AI: Claude, n8n, Azure Document Intelligence.
Tajemnica księgowego i dane klientów — ostry temat
W Polsce księgowy nie ma ustawowej tajemnicy zawodowej (inaczej niż adwokat czy doradca podatkowy). Obowiązek poufności wynika z:
- Umowy z klientem (klauzula poufności)
- Kodeksu etyki SKwP
- RODO (rola administratora lub procesora w zależności od kontraktu)
Trzy konsekwencje dla AI:
- Wysyłka danych do API AI = powierzenie w rozumieniu RODO. Wymaga umowy DPA (Data Processing Agreement) z dostawcą + standardowe klauzule umowne (SCC) jeśli dane lecą do USA.
- Shadow AI pracowników = niedopuszczalne. Księgowa wrzucająca faktury do prywatnego ChatGPT bez DPA to naruszenie umowy z klientem i RODO.
- Umowa z dostawcą AI musi wykluczać trening na danych klientów. Anthropic (Claude API) ma to w domyślnym kontrakcie — OpenAI w API też, ale warto zweryfikować plan i checkboxy.
Checklist 10 kroków do 2.08.2026
To konkretna mapa drogowa dla właściciela biura rachunkowego lub MŚP. Zacznij od góry, zrób jeden krok na tydzień.
- Inwentaryzacja wszystkich systemów AI używanych w firmie — w tym shadow AI (prywatne konta ChatGPT pracowników, narzędzia z rozszerzeń przeglądarki, wbudowane funkcje AI w Microsoft 365, Google Workspace).
- Klasyfikacja ryzyka każdego systemu — zakazany / high-risk / limited / minimal.
- DPA z dostawcami AI (Anthropic, OpenAI, Microsoft, Google). Jeśli nie masz — podpisz przed pierwszym użyciem na danych klienta.
- Aktualizacja klauzul informacyjnych RODO u klientów — dopisz informację, że używasz AI do przetwarzania dokumentów, z jakim celem i z kim dzielisz dane.
- Ocena art. 6(3) dla systemów granicznych — dokument wewnętrzny uzasadniający, że Twój system nie jest high-risk.
- Wdrożenie transparentności art. 50 — chatbot, voicebot, oznaczenia e-maili generowanych.
- Szkolenie AI literacy dla pracowników — obowiązek od 2.02.2025. Zapisana lista obecności, agenda, podpisy.
- Polityka używania AI w firmie — pisemny dokument: co wolno, czego nie wolno, gdzie zgłaszać problemy.
- DPIA dla systemów przetwarzających dane w dużej skali.
- Monitoring legislacyjny — śledź Digital Omnibus i polską ustawę wdrożeniową. Kalendarz z datami kluczowymi.
Jeśli dopiero zastanawiasz się nad zakupem automatyzacji AI i chcesz zadać właściwe pytania dostawcy — polecam 5 pytań przed zakupem automatyzacji AI.
Najczęściej zadawane pytania
Czy muszę rejestrować systemy AI w EU Database?
Zazwyczaj nie, jeśli jesteś deployerem MŚP. Rejestracja w bazie dotyczy głównie providerów systemów high-risk i publicznych organów używających systemów z Załącznika III. Prywatne biuro rachunkowe z OCR faktur — nie rejestruje.
Czy AI Act dotyczy małej firmy (3 osoby)?
Tak. AI Act nie ma minimalnego progu wielkości. Ale kary są proporcjonalnie niższe (zasada “niższa z dwóch”) i obowiązki dla deployera są lżejsze niż dla providera. Dla 3-osobowej firmy realna lista to: AI literacy, art. 50 transparentność, DPA z dostawcą, polityka AI.
Czy Claude API to GPAI (general-purpose AI)?
Tak. Anthropic jest providerem GPAI. Jeśli używasz Claude API w firmie, jesteś deployerem korzystającym z modelu GPAI. Obowiązki GPAI (Rozdz. V AI Act, od 2.08.2025) spadają głównie na Anthropic, nie na Ciebie.
Co znaczy “nadzór ludzki” w praktyce?
Art. 14 AI Act wymaga, żeby system high-risk był pod skutecznym nadzorem człowieka. W praktyce: konkretna osoba z kompetencjami, prawo weta nad decyzjami AI, możliwość wyłączenia systemu bez restartu całej infrastruktury, dokumentacja interwencji. Dla systemów nie-high-risk obowiązek prawny nie istnieje — ale human-in-the-loop to dobry design tak czy inaczej.
Czy muszę podpisać AI Pact?
Nie, to dobrowolna inicjatywa Komisji Europejskiej dla firm, które chcą pokazać wczesne wdrożenie AI Act. Sensowna dla dużych firm i vendorów AI. Dla polskiego biura rachunkowego — marketing, nie obowiązek.
Czy wystarczy, że mam RODO compliance — to samo pokrywa AI Act?
Nie. RODO i AI Act mają różne cele (dane osobowe vs bezpieczeństwo systemów AI i prawa podstawowe) i różne obowiązki. Stosujesz oba równolegle. DPIA i FRIA to różne dokumenty. Klauzula informacyjna RODO i oznaczenie chatbota art. 50 to różne rzeczy.
Co jeśli używam tylko wbudowanych AI (Copilot w Microsoft 365, Gemini w Gmail)?
Nadal jesteś deployerem. Microsoft i Google to providerzy. Twoje obowiązki: AI literacy, polityka używania AI, ewentualnie informowanie klientów jeśli generujesz dla nich treści. Plus DPA już najczęściej masz w ramach głównych umów z tymi dostawcami — warto zweryfikować zapisy.
Kiedy ostateczna polska ustawa wdrożeniowa?
Nie wiadomo na pewno. Ministerstwo Cyfryzacji pracuje nad projektem. Termin powołania polskiego organu (Komisji Rozwoju i Bezpieczeństwa SI) minął 2.08.2025. Monitoruj gov.pl/web/cyfryzacja/wdrozenie-aktu-o-ai — tam publikowane są konsultacje i projekty.
Źródła i dalsza lektura
- EUR-Lex — pełen tekst AI Act (Rozporządzenie 2024/1689)
- AI Act Service Desk — Timeline
- Art. 50 — Transparency obligations
- Art. 99 — Penalties
- Art. 26 — Obligations of deployers
- Small Business Guide to the AI Act
- Ministerstwo Cyfryzacji — wdrożenie AI Act
- UODO — stanowisko ws. AI i RODO
- EDPB — Opinion on AI Models and GDPR (18.12.2024)
Następne kroki
Jeśli masz czucie, że Twoje biuro jest “gdzieś w szarej strefie” i nie wiesz, czy używany OCR to high-risk czy nie — napisz. W 30 minut bezpłatnej konsultacji zmapujemy Twoje systemy, sklasyfikujemy ryzyko i wskażemy 3 najpilniejsze kroki. Kontakt: contact@mjoldak.com.
Jeśli chcesz zacząć od zrozumienia samej technologii, zanim wejdziesz w compliance — polecam Czym jest agent AI? Praktyczne wyjaśnienie.
AI Act nie jest po to, żeby zatrzymać małe firmy przed używaniem AI. Jest po to, żeby duże firmy nie zbudowały systemów, które szkodzą ludziom. MŚP płaci za to niewielką cenę — trochę dokumentacji i trochę dyscypliny. Warto.
Disclaimer: Ten artykuł nie stanowi porady prawnej. Przedstawia praktyczne zrozumienie AI Act z perspektywy właściciela firmy, nie interpretację prawniczą. W sprawach indywidualnych — radca prawny specjalizujący się w prawie nowych technologii lub doradca podatkowy.
Dostawaj esencję.
Najlepsze artykuły z miesiąca + 1 case study z biur rachunkowych. Bez spamu, bez sprzedaży.
Twój email idzie tylko do mnie. Wypisanie 1 klikiem.
Powiązane artykuły.
5 pytań, które musisz zadać przed zakupem automatyzacji AI — checklist dla MŚP
Gartner szacuje, że 80% projektów AI nie wyjdzie z pilota. Zanim podpiszesz umowę z vendorem, przejdź przez te 5 pytań — plus red flags i checklist compliance.
Agent AI, który obsługuje skrzynkę mailową biura rachunkowego — architektura, koszty, compliance
69% maili do biur rachunkowych to powtarzalne pytania. Pokazuję stack, który odpowiada na nie automatycznie — za ~130 zł miesięcznie, z DPA i ZDR.
Ile kosztuje godzina ręcznego przepisywania danych w polskiej firmie — kalkulator 2026
Mediana 6390 zł brutto, narzut ZUS 20,48%, realnie 47-55h produktywnej pracy miesięcznie. Rozbijam realny koszt godziny pracownika biurowego w PL i liczę, ile Twoja firma traci na przepisywaniu danych.