Czym jest system AI w rozumieniu AI Act?

9 minut
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Spis treści

AI Act – co musisz wiedzieć, zanim przepisy zaczną obowiązywać Twoją firmę

AI Act to pierwsza unijna regulacja dotycząca tworzenia, udostępniania i stosowania sztucznej inteligencji. Jeśli projektujesz, wdrażasz lub wykorzystujesz AI – rozporządzenie nakłada na Ciebie konkretne obowiązki. Ich nieprzestrzeganie oznacza wysokie kary finansowe i ryzyko odpowiedzialności administracyjnej. Poniżej znajdziesz podstawowe informacje o AI Act, harmonogram wdrożenia oraz definicję systemu AI, od której zależy, czy przepisy w ogóle Cię dotyczą.

Wyzwania związane z AI — co stoi za wdrożeniem AI Act?

Zanim przejdziemy do samej treści AI Act, warto przyjrzeć się wyzwaniom, które doprowadziły do jego powstania. To właśnie one najlepiej pokazują, dlaczego Unia Europejska zdecydowała się uregulować korzystanie ze sztucznej inteligencji.

Wśród najważniejszych problemów, które miały wpływ na kształt tych przepisów, znajdują się:

  • black box,
  • przetwarzanie danych,
  • prawa autorskie i pokrewne,
  • co jest dozwolone, a co zakazane,
  • odpowiedzialność za AI.

Black box

AI należy do nielicznych technologii, których wynik działania systemu nie zawsze da się jednoznacznie prześledzić i wyjaśnić. Takie nieprzejrzyste algorytmy określa się mianem „black box" – czyli „czarnej skrzynki".


Dla firm oznacza to konieczność działania na dwóch poziomach:

  1. Twórcy systemów AI muszą wykazać, jak działa ich oprogramowanie – AI Act wymusza większą przejrzystość algorytmów.
  2. Użytkownicy AI powinni wiedzieć, na jakich zasadach działa wykorzystywany system, zwłaszcza jeśli powierzają mu dane firmowe czy osobowe.

Więc…

  1. Jeśli tworzysz system oparty na AI – musisz dokładnie znać sposób jego działania.
  2. Jeśli korzystasz z AI – musisz rozumieć, jak działa, żeby wiedzieć, co może zrobić z Twoimi danymi i procesami.

W przeciwnym razie możesz nieświadomie udostępnić poufne dane np. do serwera w Chinach. A to dość niekomfortowa sytuacja.

Przetwarzanie danych, w tym danych osobowych

Zagadnienie black box łączy się bezpośrednio z drugim wyzwaniem: danymi, a zwłaszcza ich przetwarzaniem zgodnie z przepisami RODO.

W dużym uproszczeniu AI uczy się na podstawie danych dostarczanych przez jej twórców i użytkowników. Natomiast wiele systemów korzysta też z ogólnodostępnych treści w Internecie, co dodatkowo utrudnia kontrolę nad tym, z czego dokładnie korzystają i jak „dochodzą" do swoich odpowiedzi.


Jeśli w firmie planujesz korzystać z AI, zadaj sobie te pytania – jeszcze zanim zaczniesz przetwarzać jakiekolwiek dane:

  • Jakie dane faktycznie możesz wprowadzać do systemu AI? Czy są to dane osobowe, dane klientów, informacje poufne?
  • Czy system, z którego korzystasz, uczy się na podstawie tych danych – i co się z nimi dalej dzieje?
  • Czy dostawca systemu AI ma prawo wykorzystywać te dane do dalszego trenowania modelu albo udostępniać je innym podmiotom?
  • Czy masz odpowiednie podstawy prawne – zgody, zapisy w polityce prywatności lub umowach – które pozwalają na takie przetwarzanie?

To nie są pytania na potem. Od odpowiedzi zależy, czy działasz zgodnie z RODO – i czy nie wystawiasz się na realne ryzyko: kary, utraty zaufania klientów, wycieku danych.

Z punktu widzenia firmy stawką są dwie rzeczy:

  1. Możliwość legalnego wykorzystania danych, które już masz – np. do analizy, personalizacji, automatyzacji.
  2. Ochrona tych danych – żeby nie wypłynęły w niekontrolowany sposób i nie narobiły problemów. Jeśli okaże się, że naruszono przepisy RODO, w grę wchodzą nie tylko wizerunkowe straty, ale też kary finansowe – sięgające nawet 20 milionów euro lub 4% rocznego obrotu.

Prawa autorskie i pokrewne

Kolejny gorący temat to prawa autorskie do efektów pracy sztucznej inteligencji. Kto ma prawo do grafik, tekstów, kodu czy innych treści wygenerowanych przez AI? Czy można je legalnie wykorzystywać, chronić, a nawet sprzedawać?

Te pytania wprost dotyczą firm – zarówno tych, które tworzą treści przy wsparciu AI, jak i tych, które zamierzają je komercjalizować.


Szczególnie ważne są dwa potencjalne problemy:

1. Ryzyko naruszenia cudzych praw autorskich. To sytuacja, w której AI tworzy np. grafikę, która wygląda bardzo podobnie do już istniejącego obrazu – np. zdjęcia z banku zdjęć albo pracy innego artysty. Ty możesz nawet nie wiedzieć, że to „plagiat" – ale jeśli klient to opublikuje, może odpowiadać za naruszenie praw autorskich. Bo AI nie wymyśla od zera, tylko uczy się na cudzych pracach.


2. Niepewność co do praw do własnych efektów pracy. Prawo autorskie chroni utwory stworzone przez człowieka. Jeśli grafikę, tekst czy kod stworzy wyłącznie AI – formalnie nie ma autora, a więc nie ma też praw autorskich. A jeśli Twoi pracownicy stworzyli coś „z pomocą AI", to i tutaj nie ma prostej odpowiedzi. Trzeba będzie ocenić, na ile praca człowieka jest twórcza, a osiągnięty rezultat indywidualny. Orzecznictwo sądów w tym zakresie nadal się kształtuje i miejmy nadzieję, że w niedalekiej przyszłości określi jasne zasady ustalenia, kiedy powstają prawa autorskie do wytworu stworzonego przez człowieka przy pomocy narzędzi AI.

W praktyce oznacza to, że Twoja firma musi zadbać o:

  1. Jasne zasady korzystania z AI w procesie twórczym.
  2. Dokumentowanie procesu twórczej pracy człowieka, który korzysta z AI jako narzędzia wspierającego.
  3. Odpowiednie zapisy umowne z klientami (np. informacje o korzystaniu z AI, zapisy dotyczące praw autorskich lub know-how).
  4. Świadomość, że nie każde dzieło stworzone z użyciem AI może podlegać ochronie prawnoautorskiej, a w niektórych przypadkach może nie mieć żadnego „właściciela" w rozumieniu prawa.

Należy jednak już na wstępie zaznaczyć, że AI Act w zasadzie w żaden sposób nie reguluje opisanych powyżej problemów dotyczących praw autorskich.

Co jest dozwolone, a co zakazane w AI?

Podsumowując dotychczasowe wyzwania – sztuczna inteligencja może dziś działać całkowicie autonomicznie. Decydować o zatrudnieniu i zwolnieniu pracownika, przyznawać kredyty, oceniać ryzyko finansowe czy zachowanie użytkownika, profilować klientów, a nawet wpływać na poglądy polityczne i decyzje zakupowe.

Skala wpływu na ludzi, firmy i całe społeczeństwa jest ogromna – i nie zawsze pozytywna.

Dlatego konieczne stało się jasne określenie, do czego AI wolno wykorzystywać, jakie zastosowania wymagają dodatkowej kontroli, a które są całkowicie zakazane.

Właśnie to porządkuje AI Act.

Odpowiedzialność za AI

To, że nie stworzyłeś systemu AI, nie znaczy, że nie ponosisz za niego odpowiedzialności. Jeśli korzystasz z AI w firmie – temat ryzyka prawnego dotyczy również Ciebie. AI decyduje, doradza, rekomenduje, czasem wręcz działa za człowieka. Ale gdy pojawi się błąd, szkoda albo skarga – ktoś przecież musi wziąć na siebie odpowiedzialność.


Wszystko zależy od tego, jaką rolę pełni Twoja firma:

  • Producent własnego systemu AI – takie firmy nadal należą do mniejszości, ale ich liczba stale rośnie. W ich przypadku odpowiedzialność dotyczy m.in. bezpieczeństwa, przejrzystości i zgodności systemu z przepisami.
  • Użytkownik rozwiązań AI dostarczanych przez innych – wówczas odpowiadasz za to, jak z nich korzystasz – np. czy przestrzegasz zasad ochrony danych, czy system nie narusza praw użytkowników, nie powoduje szkody, czy jego decyzje są zgodne z prawem.
  • Użytkownik końcowy – i w tym wypadku trzeba wiedzieć, gdzie zaczyna się i kończy Twoja odpowiedzialność – choćby za błędne rekomendacje, treści generowane przez AI czy decyzje podejmowane automatycznie.

Dlatego AI Act precyzuje obowiązki dostawców systemów AI i podmiotów stosujących, a obowiązki te zależą od poziomu ryzyka związanego ze stosowaniem danego rodzaju systemu i od ustalenia, czy jest to w ogóle system AI w rozumieniu AI Act.

Od kiedy obowiązuje AI Act?

Akt o sztucznej inteligencji wszedł w życie 1 sierpnia 2024 roku. Nie wszystkie jego przepisy zaczęły jednak obowiązywać od razu – ich wdrażanie zostało rozłożone w czasie. Miało to umożliwić firmom i instytucjom dostosowanie się do nowych obowiązków bez nadmiernych zakłóceń operacyjnych.


Harmonogram wygląda następująco:

  • 2 lutego 2025 r. – weszły w życie przepisy dotyczące zakazanych praktyk w obszarze AI, w tym:
    • stosowania technik podprogowych i manipulacyjnych,
    • scoringu społecznego,
    • oceniania ryzyka popełnienia przestępstwa na podstawie profilowania lub cech osobowości.
  • 2 sierpnia 2025 r. – zaczęły obowiązywać przepisy regulujące:
    • obowiązki dostawców modeli AI ogólnego przeznaczenia,
    • funkcjonowanie krajowych organów nadzoru,
    • zasady nakładania kar za naruszenia przepisów AI Act.
  • 2 sierpnia 2026 r. – rozpocznie się stosowanie przepisów dotyczących systemów AI wysokiego ryzyka, w tym obowiązków związanych z oceną ich zgodności.

Definicja systemu sztucznej inteligencji według AI Act

Jeśli tworzysz lub korzystasz z oprogramowania, które nie spełnia definicji systemu AI, to AI Act Cię nie dotyczy. W takiej sytuacji nowe przepisy nie będą miały zastosowania, a Ty nie musisz wprowadzać żadnych zmian.

AI Act definiuje system sztucznej inteligencji jako:

„system maszynowy zaprojektowany do działania z różnym poziomem autonomii, który po wdrożeniu może wykazywać zdolność adaptacji i który – w celu osiągnięcia wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne."

Kiedy rozwiązanie spełnia definicję systemu AI?

Sprawdź, czy Twoje oprogramowanie spełnia poniższe warunki:

  • Jest to system maszynowy – oprogramowanie, które działa automatycznie lub półautomatycznie (co do zasady wszystkie systemy IT spełniają ten warunek).
  • Został zaprojektowany do działania z różnym poziomem autonomii – nie działa wyłącznie na podstawie zdefiniowanych reguł, może do pewnego stopnia samodzielnie określać plan działania dla osiągnięcia celu.
  • Może wykazywać zdolność adaptacji – czyli „uczyć się" na podstawie danych: nie jest to warunek konieczny, ale jeśli ta cecha występuje, system niemal na pewno zostanie zakwalifikowany jako AI.
  • Wnioskuje, jak generować wyniki – na podstawie danych wejściowych podejmuje decyzje, udziela rekomendacji lub tworzy treści.
  • Wygenerowane wyniki wpływają na środowisko – fizyczne (np. sterowanie maszyną) lub wirtualne (np. rekomendacja produktu, automatyczna moderacja).

Jeśli Twój system spełnia te warunki – nawet częściowo – warto założyć, że podlega pod AI Act i wymaga przynajmniej wstępnej analizy zgodności.

Już teraz zapraszam Cię do następnego wpisu, w którym omówię bardziej szczegółowo, kogo konkretnie dotyczy rozporządzenie, a które podmioty nie muszą stosować przepisów rozporządzenia.

Podsumowanie

Rozporządzenie AI Act wprowadza pierwsze w Unii Europejskiej pełne ramy prawne dotyczące tworzenia i wykorzystania systemów sztucznej inteligencji. Nowe przepisy nie tylko porządkują zasady stosowania AI, ale również nakładają szereg obowiązków – zarówno na producentów czy dostawców systemów AI, jak i użytkowników sztucznej inteligencji.

Sprawdź, czy dane rozwiązanie spełnia definicję systemu AI – ponieważ tylko wówczas podlega regulacjom AI Act.


Zastanawiasz się, czy AI Act dotyczy Twojej firmy? Czy Twoje systemy kwalifikują się jako systemy AI?

Nie zostawiaj tych pytań bez odpowiedzi – szczególnie w obliczu zbliżającego się terminu wdrożenia przepisów dotyczących systemów AI wysokiego ryzyka, który upływa 2 sierpnia 2026 roku.

Skontaktuj się z naszą kancelarią, jeśli potrzebujesz wsparcia w ocenie ryzyk prawnych, wdrożeniu zgodności z AI Act lub przygotowaniu dokumentacji AI w Twojej firmie. Specjalizujemy się w prawie nowych technologii i sztucznej inteligencji, a nasze doświadczenie łączymy z praktycznym podejściem do biznesu.

Często zadawane pytania

Czym dokładnie jest system AI w rozumieniu AI Act? AI Act definiuje system AI jako system maszynowy zaprojektowany do działania z różnym poziomem autonomii, który po wdrożeniu może wykazywać zdolność adaptacji i który wnioskuje, jak generować na podstawie danych wejściowych wyniki (predykcje, treści, zalecenia lub decyzje) mogące wpływać na środowisko fizyczne lub wirtualne. Jeśli Twoje oprogramowanie spełnia te warunki – nawet częściowo – załóż, że podlega pod AI Act i wymaga przynajmniej wstępnej analizy zgodności.


Skąd mam wiedzieć, czy narzędzie AI używane w mojej firmie podlega pod AI Act? Sprawdź pięć cech narzędzia: czy jest systemem maszynowym (działa automatycznie lub półautomatycznie), czy działa z pewnym poziomem autonomii (nie tylko na sztywnych regułach), czy wykazuje zdolność adaptacji („uczy się" na danych), czy wnioskuje i generuje wyniki na podstawie danych wejściowych oraz czy te wyniki wpływają na środowisko fizyczne lub wirtualne. Jeśli narzędzie nie spełnia tej definicji, AI Act Cię nie dotyczy i nie musisz wprowadzać żadnych zmian.


Od kiedy poszczególne obowiązki z AI Act zaczynają obowiązywać firmy? AI Act wszedł w życie 1 sierpnia 2024 r., ale obowiązki wdrażane są etapami: od 2 lutego 2025 r. obowiązują zakazy praktyk manipulacyjnych, scoringu społecznego i profilowania pod kątem ryzyka przestępstwa; od 2 sierpnia 2025 r. stosuje się przepisy o modelach AI ogólnego przeznaczenia, organach nadzoru i karach; od 2 sierpnia 2026 r. zaczną obowiązywać przepisy dotyczące systemów AI wysokiego ryzyka i oceny ich zgodności. Zaplanuj działania wdrożeniowe z wyprzedzeniem – ten ostatni termin dotyczy największej grupy firm.


Jakie ryzyka prawne bierze na siebie firma, która korzysta z AI, ale nie jest twórcą systemu? Nawet jeśli nie stworzyłeś systemu AI, odpowiadasz za sposób, w jaki z niego korzystasz – w szczególności za przestrzeganie zasad ochrony danych, za to, czy system nie narusza praw użytkowników, nie powoduje szkody oraz czy jego decyzje są zgodne z prawem. AI Act precyzuje obowiązki zarówno dostawców, jak i podmiotów stosujących AI, a ich zakres zależy od poziomu ryzyka związanego z danym systemem. Brak działania oznacza ryzyko kar finansowych i odpowiedzialności administracyjnej – niezależnie od tego, że producent systemu to ktoś inny.


Na co trzeba uważać przy wprowadzaniu danych osobowych lub poufnych informacji do narzędzi AI? Zanim wprowadzisz jakiekolwiek dane do systemu AI, ustal cztery rzeczy: jakie dane faktycznie możesz wprowadzać (osobowe, klientów, poufne), czy system uczy się na tych danych i co się z nimi dalej dzieje, czy dostawca AI ma prawo wykorzystywać je do trenowania modelu lub udostępniać innym podmiotom oraz czy masz odpowiednie podstawy prawne (zgody, politykę prywatności, zapisy umowne). Wiele systemów AI działa jak „black box" – nie zawsze wiadomo, gdzie trafiają dane – a naruszenie RODO grozi karami do 20 mln euro lub 4% rocznego obrotu i utratą zaufania klientów.

Zostaw numer telefonu
Odezwiemy się najszybciej jak to możliwe.


    Administratorem Twoich danych osobowych jest Sawaryn i Partnerzy sp. k. z siedzibą w Warszawie (00-040), przy ul. Warecka 4/6 lok. 6. Twoje dane osobowe będą przetwarzane w celu odpowiedzi na przesłane zapytanie oraz archiwizacji formularza. Więcej informacji znajdziesz w naszym
    Regulaminie
    i
    Polityce Prywatności.



    Generic selectors
    Exact matches only
    Search in title
    Search in content
    Post Type Selectors
    Spis treści
    Proponowane artykuły
    Ubezpieczenia jako narzędzie finansowania roszczeń sukcesyjnych i motywacyjnych
    Planowanie sukcesji w firmie to temat, który coraz częściej się...
    Czym jest ESOP i dlaczego warto go wdrożyć w spółce?
    Coraz więcej firm, szczególnie tych dynamicznie rozwijających się w sektorze...
    Nowe uprawnienia PIP w pytaniach i odpowiedziach
    Model współpracy B2B zdążył na dobre zadomowić się w wielu...