
Jeśli rozwijasz lub wdrażasz systemy AI, musisz wiedzieć, jakie ramy prawne już obowiązują. USA zaproponowały niewiążącą Kartę praw AI – zestaw zasad bez sankcji. UE poszła dalej: przyjęła Akt w sprawie SI (AI Act) – rozporządzenie z konkretnymi obowiązkami, klasyfikacją ryzyka i karami. Poniżej znajdziesz zestawienie obu podejść, różnice między nimi i praktyczne wnioski dla Twojego biznesu.
5 października 2022 r. Biały Dom opublikował dokument nazywany Kartą praw AI. Jego celem jest ustalenie zasad wdrażania algorytmów sztucznej inteligencji i barier ochronnych dla ich zastosowań.
Dokument powstał na podstawie:
Co to oznacza w praktyce? Karta praw AI to dokument kierunkowy, nie wiążące prawo. Nie nakłada bezpośrednich obowiązków, ale wyznacza standardy, które mogą stać się punktem odniesienia w przyszłych regulacjach.
Zdaniem Office of Science & Technology Policy (OSTP), Karta praw AI ma doprowadzić do lepszych wyników działania systemów AI przy jednoczesnym ograniczeniu szkodliwych konsekwencji. Oto pięć filarów dokumentu:
OSTP wskazuje na konkretne incydenty, które potwierdzają ryzyko niekontrolowanych algorytmów:
W reakcji na te problemy Biały Dom zobowiązał m.in. Departament Zdrowia i Opieki Społecznej oraz Departament Edukacji do opublikowania założeń ograniczających negatywne konsekwencje szkodliwych algorytmów.
Ważna różnica: te kroki nie pokrywają się z podejściem UE, które wprost zakazuje i ogranicza określone kategorie zastosowań sztucznej inteligencji.
W kwietniu 2021 r. UE opublikowała propozycję Aktu w sprawie SI. Jest to pierwsze na świecie rozporządzenie, które kompleksowo reguluje mechanizm działania systemów sztucznej inteligencji i ich zastosowań. Rozporządzenie zostało przyjęte, weszło w życie, a jego przepisy są stosowane etapowo.
Akt UE reguluje trzy obszary, których Karta praw AI nie obejmuje:
Sprawdź, czy Twoja firma lub Twoi partnerzy biznesowi podlegają regulacji. Rozporządzenie obejmuje:
Wniosek dla Twojej firmy: system SI podlega unijnym regulacjom nawet wtedy, gdy jest rozwijany w państwie trzecim – wystarczy, że wyniki jego działania są wykorzystywane w UE. Jeśli zlecasz rozwój AI za granicą, i tak odpowiadasz za zgodność z AI Act.
Podejście oparte na analizie ryzyka (risk-based approach) to mechanizm znany np. z RODO. Zasada jest prosta: obowiązkom i ograniczeniom podlegają tylko systemy SI, których wykorzystywanie wiąże się z określonym poziomem ryzyka dla praw, zdrowia i bezpieczeństwa osób fizycznych.
| Poziom ryzyka | Konsekwencja regulacyjna |
|---|---|
| Niedopuszczalne ryzyko | Całkowity zakaz praktyk – systemy stwarzające zagrożenie dla praw, zdrowia i bezpieczeństwa osób fizycznych |
| Wysokie ryzyko | Obowiązkowe spełnienie wymogów i obowiązków wskazanych w rozporządzeniu (dotyczy m.in. systemów biometrycznych, ścigania przestępstw, wymiaru sprawiedliwości, ochrony środowiska) |
| Ograniczone ryzyko | Obowiązki dotyczące przejrzystości i informowania (dotyczy systemów wchodzących w interakcje z ludźmi, rozpoznających emocje, generujących lub manipulujących zawartością audio/wideo) |
| Niskie lub minimalne ryzyko | Brak dodatkowych ograniczeń |
AI Act wprowadza prawa dla osób fizycznych i grup osób, które są poddane działaniom systemów SI. Ta zmiana była postulowana już w projekcie sprawozdania Komisji IMCO i LIBE w Parlamencie Europejskim z 20 kwietnia 2022 r.
W przypadku naruszenia praw, zdrowia lub bezpieczeństwa użytkownik zyskuje:
| Kryterium | USA – Karta praw AI | UE – AI Act |
|---|---|---|
| Status prawny | Dokument kierunkowy, niewiążący | Obowiązujące rozporządzenie |
| Zakres podmiotowy | Brak precyzyjnego określenia | Szczegółowo określony – obejmuje dostawców, użytkowników, importerów i producentów |
| Klasyfikacja ryzyka | Brak formalnej klasyfikacji | Cztery poziomy ryzyka z konkretnymi obowiązkami |
| Zakazy | Brak bezpośrednich zakazów | Całkowity zakaz praktyk o niedopuszczalnym ryzyku |
| Prawa użytkowników | Postulowane, bez mechanizmu egzekwowania | Prawo do skargi, wysłuchania i odwołania |
| Sankcje | Brak | Przewidziane w rozporządzeniu |
Jaka jest najważniejsza różnica między amerykańską Kartą praw AI a unijnym AI Act? Karta praw AI to niewiążący dokument kierunkowy – nie nakłada obowiązków ani sankcji. AI Act to obowiązujące rozporządzenie UE z konkretną klasyfikacją ryzyka, zakazami określonych praktyk, precyzyjnie wskazanymi obowiązkami i przewidzianymi karami za ich naruszenie.
Czy AI Act może dotyczyć mojej firmy, jeśli rozwijamy system AI poza UE, ale korzystają z niego klienci w Europie? Tak. AI Act obejmuje dostawców i użytkowników z państw trzecich, jeżeli wyniki działania ich systemów AI są wykorzystywane w UE. Jeśli zlecasz rozwój AI za granicą, i tak odpowiadasz za zgodność z rozporządzeniem – wystarczy, że efekt działania systemu trafia do odbiorców w Unii.
Jak AI Act klasyfikuje systemy AI według ryzyka? AI Act wyróżnia cztery poziomy ryzyka: niedopuszczalne (całkowity zakaz), wysokie (obowiązkowe spełnienie wymogów z rozporządzenia, np. systemy biometryczne czy wymiar sprawiedliwości), ograniczone (obowiązki przejrzystości i informowania, np. systemy rozpoznające emocje lub generujące treści audio/wideo) oraz niskie lub minimalne (brak dodatkowych ograniczeń). Zasada jest prosta – im wyższe ryzyko dla praw, zdrowia i bezpieczeństwa osób fizycznych, tym więcej obowiązków po Twojej stronie.
Jakie prawa ma osoba, której dotyczy decyzja albo działanie systemu AI według AI Act? Osoba poddana działaniu systemu AI ma trzy uprawnienia: prawo do wniesienia skargi na dostawcę lub użytkownika systemu do krajowego organu nadzoru, prawo do bycia wysłuchanym w ramach procedury rozpatrywania skargi oraz prawo do środka odwoławczego od decyzji wydanej przez ten organ. Dla firmy wdrażającej AI oznacza to konieczność przygotowania się na formalne postępowania i zapewnienia ścieżki obsługi takich roszczeń.
Co powinna zrobić firma jako pierwszy krok, żeby przygotować się do AI Act? Sprawdź, czy AI Act dotyczy Twojej firmy – jeśli dostarczasz, wdrażasz, dystrybuujesz lub używasz systemy AI, z dużym prawdopodobieństwem tak. Następnie zidentyfikuj wszystkie systemy AI w organizacji i przypisz każdy z nich do odpowiedniego poziomu ryzyka (niedopuszczalne, wysokie, ograniczone, niskie), a potem zweryfikuj umowy z dostawcami AI, żeby odpowiedzialność za zgodność z regulacją była jasno rozdzielona.
