Czym są systemy AI wysokiego ryzyka według AI Act

15 minut
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Spis treści

Sztuczna inteligencja nie przestaje zaskakiwać. Jeszcze kilka lat temu postrzegana jako eksperyment technologiczny, dziś staje się nieodłącznym elementem funkcjonowania większości firm. AI wspiera procesy rekrutacyjne, analizuje dane klientów, automatyzuje decyzje kredytowe i… tym samym budzi uzasadnione pytania.


Czy takie systemy mogą być wykorzystywane bez ograniczeń?

Kto odpowiada za ich decyzje?

Jak zapewnić zgodność systemów AI z przepisami?


Unia Europejska odpowiedziała na te wyzwania przyjmując AI Act  - pierwszą regulację dotyczącą tworzenia, udostępniania i stosowania AI. I choć jej pełne wdrożenie potrwa jeszcze chwilę, już teraz warto zrozumieć, jak to rozporządzenie wpłynie na przedsiębiorców i jakie obowiązki niesie ze sobą dla twórców, dostawców i użytkowników AI.

Szczególną uwagę należy zwrócić na tzw. systemy wysokiego ryzyka. To właśnie one – choć dozwolone – będą objęte ścisłym nadzorem i szeregiem obowiązków. Zignorowanie tych regulacji może skończyć się nie tylko karami finansowymi (sięgającymi nawet 15 milionów euro), ale także odpowiedzialnością za naruszenie praw podstawowych użytkowników czy klientów.


W dzisiejszym wpisie tłumaczę, czym według rozporządzenia AI Act są systemy AI wysokiego ryzyka, kto i kiedy musi spełnić określone obowiązki, a także jak przygotować się do nadchodzących wymogów w sposób bezpieczny i zgodny z prawem.

A jeśli po lekturze pojawią się pytania – jesteśmy do dyspozycji. Nasza Kancelaria od lat doradza firmom w zakresie prawa IT. Chętnie pomożemy również Tobie.

Czym są systemy AI wysokiego ryzyka? 

AI Act wprowadza klasyfikację systemów sztucznej inteligencji na podstawie ryzyka, jakie niosą ze sobą ich zastosowania. Podejście oparte na analizie ryzyka (tzw. risk-based approach) pozwala na zróżnicowanie regulacji w zależności od wpływu, jaki dany system AI może mieć na zdrowie, bezpieczeństwo i prawa podstawowe osób fizycznych.


Zgodnie z AI Act, systemy sztucznej inteligencji dzielą się na cztery główne kategorie:

  1. Systemy zakazane – AI, które może stwarzać poważne zagrożenie dla praw i bezpieczeństwa osób (np. technologie do masowego monitorowania, niektóre formy biometrii).
  2. Systemy wysokiego ryzyka – AI, które wiąże się z większym ryzykiem, ale może być stosowane, pod warunkiem spełnienia ścisłych wymogów (przykłady poniżej).
  3. Systemy ograniczonego ryzyka – AI, które może wymagać pewnych obowiązków informacyjnych, ale nie podlega tak rygorystycznym regulacjom jak systemy wysokiego ryzyka.
  4. Systemy niskiego ryzyka – AI, które nie stwarza istotnego zagrożenia i nie jest objęte szczegółowymi przepisami.

Systemy AI wysokiego ryzyka to te, które mają szczególny wpływ na życie osób fizycznych lub mogą w istotny sposób wpłynąć na społeczeństwo.


Obejmuje to m.in. obszary takie jak:

  • Rekrutacja i zatrudnienie – systemy oceniające kompetencje pracowników, podejmujące decyzje rekrutacyjne lub monitorujące wydajność.
  • Edukacja – AI oceniające kompetencje uczniów, rekomendujące ścieżki edukacyjne lub przyznające stypendia.
  • Opieka zdrowotna – systemy wspierające diagnozowanie, prognozowanie wyników leczenia, a także podejmowanie decyzji o przydziale zasobów medycznych.
  • Zarządzanie infrastrukturą krytyczną – AI wykorzystywane w energetyce, wodociągach, transporcie publicznym czy zarządzaniu sieciami energetycznymi.
  • Usługi publiczne – systemy przyznające pomoc społeczną, oceniające wnioski o świadczenia lub usługi.
  • Wymiar sprawiedliwości – narzędzia wykorzystywane w analizach dowodów, wyrokach, czy ustalaniu odpowiedzialności.

Obszary te mają wysokie ryzyko związane z możliwymi błędami, które mogą prowadzić do poważnych konsekwencji dla ludzi – takich jak niesprawiedliwe odrzucenie aplikacji o pracę, błędna diagnoza medyczna czy nieprawidłowa ocena ryzyka kredytowego.


Zgodność z AI Act dla systemów wysokiego ryzyka nie jest tylko formalnością – to zbiór ściśle określonych obowiązków, które muszą być spełnione, aby system mógł zostać wprowadzony do użytku i legalnie funkcjonować na rynku UE.

Przykłady systemów AI wysokiego ryzyka 

Systemy AI wysokiego ryzyka nie są tylko abstrakcyjnymi rozwiązania technologicznymi – mają realny wpływ na codzienne życie osób oraz na funkcjonowanie firm w różnych branżach. AI Act szczególnie koncentruje się na obszarach, w których sztuczna inteligencja może mieć decydujący wpływ na życie ludzi lub grup społecznych.


Poniżej omówię kilka przykładów, które dobrze ilustrują, jak te przepisy przekładają się na praktyczne zastosowanie sztucznej inteligencji.


  1. Rekrutacja i zarządzanie personelem

Wiele firm stosuje systemy AI do selekcji kandydatów do pracy, oceny ich umiejętności, a nawet prognozowania ich przyszłej wydajności w organizacji. Systemy rekrutacyjne oparte na AI mogą szybko przetwarzać dużą liczbę aplikacji, weryfikować CV, a także oceniać kandydatów na podstawie danych zebranych z różnych źródeł (np. LinkedIn, testy psychologiczne, dane z mediów społecznościowych). Jednak takie narzędzia mogą również prowadzić do dyskryminacji, jeśli algorytmy nie będą odpowiednio zróżnicowane lub nie będą uwzględniać pełnego kontekstu. Niewłaściwie zaprojektowane systemy mogą nieświadomie faworyzować określone grupy kandydatów (np. w oparciu o płeć, wiek, rasę) lub opierać się na uprzedzeniach zawartych w danych.

Zgodnie z AI Act, takie systemy muszą być transparentne (tj. użytkownicy muszą wiedzieć, jak i na jakich danych system bazuje) oraz sprawdzone pod kątem ryzyka dyskryminacji.


  1. Scoring kredytowy i ocena ryzyka finansowego

AI wykorzystywane do oceny ryzyka kredytowego jest jednym z najczęstszych przykładów systemów wysokiego ryzyka. Banki i instytucje finansowe w UE coraz częściej korzystają z algorytmów sztucznej inteligencji do oceny zdolności kredytowej klientów. AI analizuje ogromne zbiory danych, przewidując, jakie są szanse, że osoba spłaci pożyczkę. Chociaż takie rozwiązania mogą przyspieszyć proces decyzyjny, to mogą również prowadzić do niedoskonałości oceny, szczególnie jeśli dane wejściowe są niewłaściwie dobrane lub obarczone błędami. Dodatkowo, w przypadku błędnych decyzji, klienci mogą zostać niesłusznie odrzuceni lub otrzymać gorsze warunki kredytowe, co może mieć poważne konsekwencje finansowe.

Zgodnie z regulacjami AI Act, te systemy muszą być sprawdzone pod kątem sprawiedliwości i przejrzystości w procesie podejmowania decyzji, oraz wymaga się, aby osoby, które zostały ocenione przez AI, miały dostęp do wyjaśnień na temat decyzji.


  1. Opieka zdrowotna

Sztuczna inteligencja jest również szeroko stosowana w diagnozowaniu chorób oraz w procesie planowania leczenia. Przykładem mogą być systemy AI, które wspomagają lekarzy w identyfikowaniu wczesnych oznak raka, interpretacji wyników badań medycznych (np. obrazów z rezonansu magnetycznego) lub przewidywaniu wyników terapii. Takie systemy mają potencjał, by ratować życie, ale także stwarzają wysokie ryzyko błędnych diagnoz, szczególnie w przypadku niepełnych lub niewłaściwie przetworzonych danych. Ponadto decyzje podejmowane przez AI mogą budzić wątpliwości dotyczące odpowiedzialności w przypadku błędnych wyników, zwłaszcza jeśli systemy nie działają zgodnie z przeznaczeniem lub są nieaktualne.

AI Act stawia duży nacisk na monitorowanie bezpieczeństwa tych systemów oraz wymóg przejrzystości w podejmowaniu decyzji o zdrowiu pacjentów.


  1. Infrastruktura krytyczna

W kontekście zarządzania infrastrukturą krytyczną – takich jak sieci energetyczne, wodociągowe czy transportowe – systemy AI są wykorzystywane do optymalizacji zarządzania i monitorowania obiektów o kluczowym znaczeniu dla funkcjonowania państwa i społeczeństwa. AI może przewidywać awarie, optymalizować zużycie energii, a także reagować na zmiany w infrastrukturze. Jednak błędne działanie takich systemów może prowadzić do awarii lub zatrzymania dostaw usług podstawowych (np. przerwy w dostawie prądu lub wody), co niosłoby za sobą ogromne konsekwencje dla zdrowia i życia obywateli.


Zgodnie z AI Act, te systemy muszą spełniać rygorystyczne standardy bezpieczeństwa, szczególnie w kontekście odporności na cyberataki, oraz być regularnie monitorowane pod kątem ich prawidłowego działania.


Każdy z tych przykładów ilustruje, jak ogromny wpływ na codzienne życie ludzi mają systemy AI wysokiego ryzyka. Są one używane w tak kluczowych obszarach, że ich błędne działanie może nieść ogromne konsekwencje prawne, finansowe i zdrowotne. Z tego powodu, AI Act stawia bardzo wyraźne wymagania, które mają zapewnić, że te systemy będą odpowiedzialne, bezpieczne i sprawiedliwe.


Obowiązki dostawców systemów AI wysokiego ryzyka 

Tworzenie, wdrażanie i wykorzystywanie systemów AI wysokiego ryzyka wiąże się z obowiązkiem spełnienia wielu wymagań, które ma na celu zapewnienie ich bezpieczeństwa, przejrzystości oraz zgodności z przepisami prawa. AI Act nakłada szczególne obowiązki na dostawców systemów (tj. firmy, które projektują, wytwarzają lub wdrażają systemy AI).


Poniżej przedstawię najważniejsze wymagania, które dostawcy muszą spełnić, aby zapewnić legalne i bezpieczne funkcjonowanie swoich systemów.


  1. System zarządzania ryzykiem

Dostawcy systemów AI wysokiego ryzyka są zobowiązani do stałego zarządzania ryzykiem, jakie może wynikać z działania systemu. To podejście ma obejmować cały cykl życia systemu AI – od fazy projektowania, przez rozwój, testy, aż po wdrożenie i monitorowanie jego funkcjonowania po wprowadzeniu do obrotu.

Proces zarządzania ryzykiem w ramach AI Act wymaga, aby:

  • Identyfikować i oceniać ryzyka związane z systemem (np. błędne decyzje, dyskryminacja, naruszenia prywatności).
  • Wdrożyć środki techniczne i organizacyjne, które zminimalizują te ryzyka do poziomu akceptowalnego.
  • Regularnie testować i monitorować system, aby wykrywać potencjalne problemy i działać prewencyjnie.

Dostawcy systemów AI muszą także opracować procedury nadzoru, które zapewnią, że system nie będzie działał w sposób niekontrolowany lub niewłaściwy.


  1. Zarządzanie danymi

Każdy system AI jest zasilany danymi – dlatego AI Act szczególnie podkreśla znaczenie odpowiedniego zarządzania danymi. Dane muszą być rzetelne, zgodne z prawem i wolne od uprzedzeń. Oznacza to, że dostawcy muszą zapewnić, że dane wykorzystywane w procesie uczenia maszynowego:

  • przetwarzane zgodnie z przepisami ochrony danych osobowych, w tym RODO.
  • Nie zawierają uprzedzeń – aby systemy AI nie podejmowały decyzji opartych na błędnych założeniach, które mogą prowadzić do dyskryminacji.

Dostawcy muszą także zapewnić minimalizację danych, co oznacza, że zbieranie danych do systemów AI powinno odbywać się w sposób ograniczony do niezbędnego minimum. Pseudonimizacja i szyfrowanie danych są również kluczowe dla zapewnienia bezpieczeństwa informacji i ochrony prywatności osób, których dane są przetwarzane.


  1. Dokumentacja techniczna i logowanie działań

AI Act wymaga, aby dostawcy systemów wysokiego ryzyka przygotowali szczegółową dokumentację techniczną dotyczącą ich systemu. Dokumentacja ta powinna zawierać informacje o:

  • Funkcjach systemu,
  • Architekturze algorytmów,
  • Zastosowanych metodach uczenia maszynowego,
  • Procesach testowych i audytowych,
  • Środkach zaradczych w przypadku wykrycia ryzyk.

Dostawcy muszą także zapewnić, że wszystkie działania systemu będą rejestrowane (tzw. logowanie działań). Logi są niezbędne do:

  • Przeprowadzania audytów w celu weryfikacji zgodności systemu z wymaganiami AI Act.
  • Identyfikowania błędów oraz zapewnienia odpowiedzialności za decyzje podejmowane przez AI.

Rejestrowanie działań jest szczególnie istotne w systemach, które podejmują decyzje wpływające na osoby fizyczne, jak w przypadku rekrutacji, oceny zdolności kredytowej czy diagnoz medycznych.


  1. Ocena zgodności

Przed wprowadzeniem systemu AI wysokiego ryzyka na rynek, dostawcy muszą przejść przez formalną procedurę oceny zgodności. Jest to proces, w którym ocenia się, czy system spełnia wszystkie wymagania określone w AI Act.

Ocena zgodności powinna obejmować:

  • Analizę ryzyk związanych z systemem AI.
  • Testy i audyty, które pozwolą sprawdzić, czy system działa zgodnie z przyjętymi standardami bezpieczeństwa.
  • Sporządzenie deklaracji zgodności UE, która będzie potwierdzać, że system spełnia wszystkie wymogi prawa.

Po przeprowadzeniu oceny zgodności, dostawca powinien umieścić oznaczenie CE na systemie, co oznacza, że system jest zgodny z europejskimi standardami prawnymi.


  1. Rejestracja systemu w bazie danych UE

AI Act wymaga od dostawców systemów AI wysokiego ryzyka, aby zarejestrowali swoje systemy w unijnej bazie danych. Rejestracja ta ma na celu:

  • Zwiększenie przejrzystości rynku AI.
  • Umożliwienie organom nadzoru monitorowania systemów, które mogą mieć duży wpływ na prawa i bezpieczeństwo obywateli.

Zarejestrowanie systemu w bazie danych UE pozwala również na łatwiejsze przeprowadzanie audytów i kontroli przez odpowiednie organy.


Dostawcy systemów AI wysokiego ryzyka mają więc wiele obowiązków, które mają na celu zapewnienie odpowiedzialnego i bezpiecznego wdrożenia AI. Spełnienie tych wymogów jest kluczowe dla zapobiegania ryzyku błędów i ochrony praw użytkowników, co ma szczególne znaczenie w przypadku systemów, które mogą wpływać na życie ludzi w tak wielu obszarach.

Zwiększ bezpieczeństwo swoich systemów AI
Napisz do nas!Skontaktuj się

Obowiązki użytkowników systemów AI wysokiego ryzyka 

AI Act nakłada także pewne obowiązki na użytkowników systemów AI wysokiego ryzyka – osoby lub organizacje, które korzystają z tych technologii. Chociaż ich odpowiedzialność jest mniejsza niż dostawców, to wciąż muszą spełniać kilka ważnych wymogów, by zapewnić bezpieczne i zgodne z prawem użytkowanie AI.


  1. Zgodne użycie

Użytkownicy systemów AI wysokiego ryzyka muszą korzystać z nich zgodnie z dokumentacją dostarczoną przez dostawcę. Oznacza to przestrzeganie zaleceń producenta, aby uniknąć błędów, które mogłyby prowadzić do ryzyk, takich jak niewłaściwe decyzje.


  1. Zapewnienie nadzoru człowieka

Wszystkie systemy AI wysokiego ryzyka muszą działać pod nadzorem człowieka. Użytkownicy muszą mieć zapewnioną możliwość monitorowania decyzji podejmowanych przez AI, zwłaszcza w obszarach, które mogą mieć duży wpływ na osoby, jak rekrutacja czy ocena kredytowa. Nadzór powinien być sprawowany przez osobę odpowiednio przeszkoloną.


  1. Jakość danych wejściowych

Użytkownicy odpowiadają za jakość danych, które przekazują systemowi. Dane muszą być rzetelne i odpowiednio przygotowane, aby AI mogło działać w sposób sprawiedliwy i dokładny. W szczególności, użytkownicy powinni unikać wprowadzania danych, które mogą wprowadzać uprzedzenia lub ograniczać zakres działania systemu.


  1. Reakcja na ryzyko i logowanie zdarzeń

Jeśli system zaczyna działać niewłaściwie lub pojawiają się nieprawidłowe wyniki, użytkownicy mają obowiązek przerwać działanie systemu i poinformować dostawcę. Powinni także zachować logi zdarzeń, które umożliwią późniejszą analizę i identyfikację przyczyn problemów. Logi muszą być przechowywane przez co najmniej 6 miesięcy.


Wyjątki, kiedy system AI nie będzie uznawany za system wysokiego ryzyka? 

Chociaż AI Act nakłada szczególne wymagania na systemy AI wysokiego ryzyka, istnieją pewne wyjątki, które mogą zwolnić systemy z pełnego zakresu regulacji. Warto je znać, ponieważ mogą one dotyczyć systemów, które na pierwszy rzut oka wydają się należeć do kategorii wysokiego ryzyka.


Kiedy system AI nie będzie uznawany za wysoki ryzyko?

System AI może nie zostać zakwalifikowany jako wysoki ryzyko, mimo że działa w obszarze wymienionym w załączniku III AI Act, jeśli:

  • Nie stwarza istotnego ryzyka dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych.
  • Nie prowadzi profilowania osób fizycznych – jeśli system nie analizuje cech osób (np. zachowania, dane demograficzne) w celu przypisania im określonego „profilu”.

Przykłady zastosowań, które mogą skorzystać z wyjątku:

  • Proste systemy proceduralne – np. narzędzia do przetwarzania faktur, które nie angażują się w skomplikowane decyzje dotyczące osób fizycznych.
  • Wykrywanie wzorców – systemy, które jedynie wykrywają pewne wzorce w danych, ale nie podejmują decyzji na ich podstawie.
  • Systemy wspomagające człowieka – AI, które działa jako narzędzie pomocnicze, ale ostateczna decyzja należy do człowieka (np. rekomendacje w procesie rekrutacji).

Wymogi dokumentacyjne

Mimo że system może skorzystać z wyjątku, dokumentowanie decyzji o zastosowaniu wyjątku jest obowiązkowe. Dostawcy i użytkownicy muszą sporządzić ocenę, która jasno określi, dlaczego system nie spełnia kryteriów systemu wysokiego ryzyka. Rejestracja systemu w unijnej bazie danych nadal może być wymagana, w zależności od decyzji organów nadzoru.


Zmiany w załączniku III AI Act

Warto pamiętać, że załącznik III do AI Act, który definiuje systemy wysokiego ryzyka, może być zmieniany przez Komisję Europejską w miarę rozwoju technologii. Nowe systemy mogą zostać dodane do listy, a obecne mogą zostać usunięte lub zmodyfikowane, jeśli stwarzają niższe ryzyko.


Zrozumienie wyjątków pozwala lepiej ocenić, czy Twój system AI rzeczywiście podlega pełnym wymogom AI Act, czy też może korzystać z wyjątków, co może wpłynąć na sposób przygotowania i wdrażania regulacji w Twojej firmie.

Jakie mogą być konsekwencje braku zgodności z AI Act? 

AI Act wprowadza wysokie standardy dla systemów sztucznej inteligencji, szczególnie w zakresie systemów wysokiego ryzyka. Niezastosowanie się do tych regulacji może wiązać się z poważnymi konsekwencjami prawno-finansowymi, które obejmują wysokie kary oraz odpowiedzialność cywilną i administracyjną.


Kary finansowe

W przypadku naruszenia przepisów AI Act, dostawcy i użytkownicy systemów AI wysokiego ryzyka mogą zostać ukarani karą finansową. Wysokość kary zależy od rodzaju naruszenia oraz skali działalności firmy.

  • Maksymalna kara za niezgodność z przepisami AI Act może wynieść nawet 15 milionów euro lub 3% rocznego światowego obrotu przedsiębiorstwa – w zależności od tego, która wartość jest wyższa.
  • Dodatkowe kary mogą dotyczyć przypadków, w których organizacja:
    • Nie przeprowadziła oceny zgodności systemu AI,
    • Zlekceważyła wymóg rejestracji systemu w bazie danych UE,
    • Zignorowała wymogi dotyczące transparentności i przejrzystości działania systemów AI.

Odpowiedzialność administracyjna

Poza karami finansowymi, organizacje mogą również ponosić odpowiedzialność administracyjną:

  • Zakaz działalności na rynku UE dla systemów AI, które nie spełniają wymagań AI Act. Może to obejmować wycofanie produktów lub zakaz ich dalszego użytkowania.
  • Zawieszenie lub cofnięcie rejestracji systemu w unijnej bazie danych, co oznacza, że nie będzie on mógł być legalnie oferowany ani wykorzystywany w UE.

Odpowiedzialność cywilna

Naruszenie regulacji dotyczących AI Act może również prowadzić do odpowiedzialności cywilnej wobec osób lub organizacji poszkodowanych przez błędne działanie systemów AI:

  • Rekompensata za szkody: jeśli system AI podjął błędną decyzję, która miała negatywne konsekwencje (np. błędna diagnoza medyczna, nieuzasadnione odrzucenie wniosku kredytowego), firma może być zobowiązana do zapłaty odszkodowania.
  • Odpowiedzialność za błędne decyzje: firmy, które wdrażają systemy AI w wysokiego ryzyka, mogą ponosić odpowiedzialność za wyniki ich działania, jeśli nie wprowadziły odpowiednich środków nadzoru lub zarządzania ryzykiem.

Strata reputacji

Nieprzestrzeganie AI Act może również skutkować stratą reputacji firmy, co w dłuższej perspektywie może wpłynąć na:

  • Zaufanie konsumentów i partnerów biznesowych,
  • Wzrost ryzyka związane z przyszłymi inwestycjami i współpracami,
  • Dyskwalifikację w przetargach publicznych lub utratą dostępu do rynków unijnych.

Zgodność z AI Act to nie tylko kwestia uniknięcia kar, ale także zapewnienia bezpieczeństwa i odpowiedzialnego wykorzystania technologii, które w przeciwnym razie mogą prowadzić do istotnych ryzyk prawnych, finansowych i społecznych. 

Jak wygląda ochrona danych osobowych przy systemach AI wysokiego ryzyka? 

Zgodność z RODO (Rozporządzenie o Ochronie Danych Osobowych) jest bardzo istotną kwestią w kontekście systemów AI wysokiego ryzyka, ponieważ często przetwarzają one dane osobowe, któe są szczególnie wrażliwe. AI Act i RODO muszą być traktowane równolegle, szczególnie gdy systemy AI operują na danych osobowych osób fizycznych np. w procesie rekrutacji czy w ocenie zdolności kredytowej. Zgodnie z RODO administratorem danych jest podmiot, który decyduje o celach i sposobach przetwarzania danych, a podmiot dostarczający AI pełni rolę procesora danych. 


Przetwarzanie danych osobowych w systemach AI wysokiego ryzyka musi być zgodne z zasadą minimalizacji danych – zbieranie tylko tych informacji, które są niezbędne do realizacji określonego celu. Pseudonimizacja (przetwarzanie danych osobowych w taki sposób, aby nie było możliwe zidentyfikowanie, do kogo one należą, bez dostępu do innych informacji, przechowywanych bezpiecznie w innym miejscu) i szyfrowanie danych są zalecanymi środkami ochrony prywatności. Każdy system AI, który przetwarza dane osobowe, musi być zaprojektowany tak, aby umożliwić realizację praw osób, których dane dotyczą, takich jak prawo do dostępu, prawo do sprostowania i prawo do usunięcia danych (tzw. „prawo do bycia zapomnianym”).


Dostawcy systemów muszą przeprowadzać ocenę skutków przetwarzania danych osobowych (DPIA), zwłaszcza jeśli istnieje wysokie ryzyko naruszenia praw i wolności osób. Jeśli system AI przetwarza szczególne kategorie danych osobowych, jak dane zdrowotne czy dane biometryczne, wymagana jest dodatkowa zgoda osoby, której dane są przetwarzane, oraz zapewnienie dodatkowych środków ochrony.


Ponadto, zgodnie z AI Act, dostawcy systemów AI wysokiego ryzyka muszą zapewnić przejrzystość i informować użytkowników o tym, jak ich dane są wykorzystywane. W przypadku naruszenia ochrony danych, organizacja ma obowiązek poinformować zarówno użytkowników, jak i odpowiednie organy nadzorcze, w tym UODO, w ciągu 72 godzin. Niedostosowanie się do wymogów RODO w kontekście AI może prowadzić do wysokich kar finansowych, które mogą sięgać do 20 mln euro lub 4% rocznego obrotu, w zależności od tego, która kwota jest wyższa.

Podsumowanie 

Systemy AI, zwłaszcza te uznawane za wyskiego ryzyka, wprowadzają wiele wyzwań, zarówno dla przedsiębiorców, jak i dla instytucji regulujących. AI Act określa szczegółowe wymagania, które mają na celu zapewnienie, że technologie AI są wykorzystywane w sposób odpowiedzialny, bezpieczny i zgodny z prawem. Najważniejszym elementem jest zarządzanie ryzykiem związanym z AI, szczególnie w obszarach takich jak rekrutacja, opieka zdrowotna czy scoring kredytowy, gdzie błędne decyzje mogą miec poważne konsekwencje. 


Zgodność z przepisami unijnymi, takimi jak AI Act i RODO, jest nie tylko obowiązkiem, ale i sposobem minimalizowania ryzyk, związanych z używaniem systemów AI. Dostawcy i użytkownicy tych technologii muszą współpracować, by spełniać wymogi dotyczące bezpieczeństwa, przejrzystości oraz ochrony danych osobowych. Brak ich przestrzegania może prowadzić do dotkliwych kar finansowych i odpowiedzialności  cywilnej, a także problemów wizerunkowych czy tych związanych z bieżącym funkjonowaniem firmy. 


W odpowiedzi na te wyzwania, przedsiębiorcy mogą czerpać korzyści z dobrze zaplanowanego podejścia do zgodności, które zapewnia im nie tylko przestrzeganie prawa, ale także zaufanie ich klientów czy partnerów biznesowych. 


Jeśli Twoja firma wykorzystuje systemy AI, warto jak najszybciej zapoznać się z obowiązkami wynikającymi z AI Act oraz wdrożyć odpowiednie procedury, któe zapewnią zgodność z przepisami. 


Nasza Kancelaria jest gotowa, by wspierać Cię w tym procesie, zapewniając pełną pomoc prawną przy dostosowaniu technologii do wymogów regulacyjnych 

Zostaw numer telefonu
Odezwiemy się najszybciej jak to możliwe.


    Administratorem Twoich danych osobowych jest Sawaryn i Partnerzy sp. k. z siedzibą w Warszawie (00-040), przy ul. Warecka 4/6 lok. 6. Twoje dane osobowe będą przetwarzane w celu odpowiedzi na przesłane zapytanie oraz archiwizacji formularza. Więcej informacji znajdziesz w naszym
    Regulaminie
    i
    Polityce Prywatności.



    Generic selectors
    Exact matches only
    Search in title
    Search in content
    Post Type Selectors
    Spis treści
    Proponowane artykuły
    Jak zabezpieczyć wypłatę zachowku lub ekwiwalentu za udziały w spółce z o.o. - bez naruszenia płynności finansowej
    Śmierć wspólnika w spółce z ograniczoną odpowiedzialnością to nie tylko...
    10 najciekawszych kar RODO w 2025 roku *
    Zdarza się, że o ochronie danych myślimy wyłącznie w kategorii...
    Odprawa bez ZUS-u? Jak legalnie budować prywatny kapitał dla członków zarządu
    W ostatnich latach coraz więcej spółek kapitałowych oraz ich właścicieli...
    1 2 3 30