AI Act — co zmienia europejska regulacja sztucznej inteligencji?
2 sierpnia 2026 roku większość przepisów AI Act wchodzi w pełne stosowanie. To pierwsza na świecie kompleksowa regulacja sztucznej inteligencji — i zmienia zasady gry dla każdej firmy, która tworzy lub używa AI w Unii Europejskiej. W tym artykule wyjaśniamy, co AI Act oznacza w praktyce.
Czym jest AI Act?
AI Act (Rozporządzenie Parlamentu Europejskiego i Rady w sprawie sztucznej inteligencji) to unijne prawo regulujące rozwój, wdrażanie i używanie systemów AI w Europie. Zostało uchwalone 13 marca 2024 roku i wchodzi w życie etapami:
- Luty 2025 — zakaz niedopuszczalnych praktyk AI
- Sierpień 2025 — przepisy dotyczące modeli ogólnego przeznaczenia (GPAI)
- Sierpień 2026 — pełne stosowanie większości przepisów
- Sierpień 2027 — przepisy dla AI w produktach regulowanych (wyroby medyczne, maszyny)
Podejście oparte na ryzyku
Kluczowa idea AI Act: im większe ryzyko związane z systemem AI, tym surowsze wymagania. AI Act wyróżnia cztery kategorie:
1. Ryzyko niedopuszczalne (zakazane)
Systemy AI zakazane od lutego 2025:
- Social scoring — systemy oceny obywateli na wzór chiński
- Manipulacja podprogowa — AI wykorzystująca nieświadome techniki manipulacji
- Biometryczna identyfikacja w czasie rzeczywistym — kamery rozpoznające twarze w przestrzeni publicznej (z wyjątkami dla ścigania poważnych przestępstw)
- Rozpoznawanie emocji — w miejscu pracy i szkołach
- Scraping biometryczny — masowe zbieranie danych biometrycznych z internetu
- Predykcyjna policja — ocena ryzyka popełnienia przestępstwa na podstawie cech osobistych
2. Wysokie ryzyko (surowe wymagania)
Systemy AI wymagające certyfikacji, audytów i dokumentacji:
- Rekrutacja i HR — screening CV, ocena kandydatów, monitoring pracowników
- Scoring kredytowy — ocena zdolności kredytowej
- Edukacja — automatyczne ocenianie, selekcja studentów
- Dostęp do usług publicznych — systemy decyzyjne w urzędach
- Ściganie przestępstw — profilowanie, analiza dowodów
- Migracja — ocena wniosków azylowych, kontrola graniczna
- Wyroby medyczne — AI diagnostyczne (od sierpnia 2027)
- Infrastruktura krytyczna — transport, energia, woda
Obowiązki dostawców systemów wysokiego ryzyka:
- System zarządzania ryzykiem
- Zarządzanie danymi treningowymi (jakość, reprezentatywność, bias)
- Dokumentacja techniczna
- Logowanie i transparentność
- Nadzór ludzki (human oversight)
- Dokładność, odporność, cyberbezpieczeństwo
- Ocena zgodności (samodzielna lub przez notified body)
- Rejestracja w unijnej bazie danych
3. Ograniczone ryzyko (obowiązki transparentności)
Systemy wymagające informowania użytkownika:
- Chatboty — użytkownik musi wiedzieć, że rozmawia z AI
- Deepfakes — treści generowane przez AI muszą być oznaczone
- Generowanie tekstu — treści AI publikowane jako informacje muszą być oznaczone
- Systemy rozpoznawania emocji — informowanie o analizie
4. Minimalne ryzyko (brak dodatkowych wymagań)
Większość systemów AI: filtry spamu, gry, systemy rekomendacji, narzędzia produktywności. Mogą dobrowolnie stosować kodeksy postępowania.
Modele ogólnego przeznaczenia (GPAI)
AI Act wprowadza osobne przepisy dla modeli fundamentalnych (GPT-4, Claude, Gemini, Llama):
GPAI — obowiązki podstawowe (wszystkie modele):
- Dokumentacja techniczna modelu
- Polityka dotycząca praw autorskich (opt-out dla web scraping)
- Podsumowanie danych treningowych
- Współpraca z downstream dostawcami
GPAI z ryzykiem systemowym (bardzo duże modele):
Modele trenowane z mocą obliczeniową >10^25 FLOPS (lub wyznaczone przez Komisję):
- Red teaming (testy adversarialne)
- Ocena i mitigacja ryzyka systemowego
- Raportowanie poważnych incydentów
- Zapewnienie cyberbezpieczeństwa
- Dokumentacja zużycia energii
Co to oznacza dla polskich firm?
Firmy korzystające z AI (deployers)
Jeśli Twoja firma używa systemu AI wysokiego ryzyka (np. AI do rekrutacji, scoringu kredytowego):
- Musisz zapewnić nadzór ludzki nad decyzjami AI
- Musisz informować pracowników/kandydatów o użyciu AI
- Musisz monitorować system pod kątem ryzyka
- Musisz prowadzić logi użycia systemu
- Musisz przeprowadzić FRIA (Fundamental Rights Impact Assessment) dla systemów wysokiego ryzyka
Firmy tworzące AI (providers)
Jeśli tworzysz system AI:
- Musisz sklasyfikować system wg kategorii ryzyka
- Dla systemów wysokiego ryzyka: pełna dokumentacja, certyfikacja, audyty
- Dla chatbotów/generatywnych: obowiązek oznaczania treści AI
- Musisz współpracować z organami nadzoru
Firmy importujące AI (importers/distributors)
Jeśli importujesz system AI z USA/Chin:
- Musisz zweryfikować zgodność z AI Act
- Odpowiadasz za system na rynku UE
Kary za nieprzestrzeganie
AI Act wprowadza surowe kary finansowe:
- Niedopuszczalne praktyki AI: do 35 mln EUR lub 7% rocznego obrotu (cokolwiek wyższe)
- Inne naruszenia: do 15 mln EUR lub 3% obrotu
- Nieprawidłowe informacje: do 7.5 mln EUR lub 1% obrotu
- Dla MŚP i startupów: kary proporcjonalne do wielkości firmy
Kontekst globalny
AI Act to najbardziej kompleksowa regulacja AI na świecie, ale nie jedyna:
- USA — Executive Order on AI (luźniejsze podejście, branżowe wytyczne)
- Chiny — oddzielne regulacje dla generatywnej AI, deepfakes, algorytmów rekomendacji
- UK — pro-innovation approach, sektorowe regulacje
- Kanada — AIDA (Artificial Intelligence and Data Act)
Podejście UE oparte na ryzyku staje się globalnym wzorcem — wiele krajów modeluje swoje przepisy na AI Act.
Jak się przygotować?
Krok 1: Zinwentaryzuj AI w firmie
Zidentyfikuj wszystkie systemy AI, które tworzysz lub używasz. Sklasyfikuj je wg kategorii ryzyka AI Act.
Krok 2: Oceń luki
Porównaj obecne praktyki z wymaganiami AI Act dla każdej kategorii ryzyka.
Krok 3: Zbuduj governance
Wyznacz osobę odpowiedzialną za AI compliance. Stwórz procedury oceny ryzyka, dokumentacji i monitoringu.
Krok 4: Dokumentacja
Przygotuj dokumentację techniczną systemów AI. Udokumentuj dane treningowe, architekturę, metryki, testy.
Krok 5: Transparentność
Wdroż mechanizmy informowania użytkowników o interakcji z AI. Oznaczaj treści generowane przez AI.
Krok 6: Nadzór ludzki
Zapewnij, że krytyczne decyzje AI podlegają weryfikacji przez człowieka. Przeszkol pracowników w nadzorowaniu systemów AI.
Wpływ na rynek AI
AI Act zmieni rynek AI w Europie na kilka sposobów:
- Bariera wejścia — compliance jest kosztowny, co może faworyzować duże firmy
- Zaufanie — regulacja zwiększa zaufanie do AI, co paradoksalnie może przyspieszyć adopcję
- Innowacja — niektóre obszary (social scoring, biometria) będą niedostępne, ale inne rozkwitną
- Standaryzacja — wspólne standardy ułatwią interoperacyjność
Więcej o polskim rynku AI przeczytasz w naszym artykule AI w Polsce 2026.
Podsumowanie
AI Act to przełomowa regulacja, która ustanawia globalne standardy dla sztucznej inteligencji. Nie zakazuje AI — tworzy ramy, w których AI może się rozwijać odpowiedzialnie. Firmy, które wcześnie dostosują się do wymogów, zyskają przewagę konkurencyjną poprzez zaufanie klientów i partnerów.
Kluczowe daty: luty 2025 (zakazy), sierpień 2025 (GPAI), sierpień 2026 (pełne stosowanie). Czas na przygotowanie jest teraz.