Czym jest system AI w rozumieniu AI Act?

8 minut
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Spis treści

Czy sztuczna inteligencja  przejmuje kontrolę nad światem? Takie stwierdzenie to oczywiście przesada – ale nie da się ukryć, że AI staje się wszechobecna. Jest dostępna w niemal każdym nowym oprogramowaniu, a coraz częściej także w urządzeniach – wystarczy spojrzeć na autonomiczne samochody poruszające się po ulicach wielu miast.

Rozwój technologii sztucznej inteligencji rodzi jednak szereg wyzwań – nie tylko technologicznych, lecz też etycznych czy prawnych.


Co wolno AI?

Kto ponosi odpowiedzialność za jej działania?

Kto jest właścicielem efektów jej pracy (tzw. output’u)?


W odpowiedzi na te pytania Unia Europejska przyjęła pierwszą regulację dotyczącą tworzenia, udostępniania i stosowania AI – czyli AI Act.

To rozporządzenie, które ma niezaprzeczalny wpływ na firmy projektujące, wdrażające lub wykorzystujące sztuczną inteligencję. Jak to zwykle bywa z unijnym prawem – jego nieprzestrzeganie wiąże się z poważnymi konsekwencjami: wysokimi karami finansowymi i ryzykiem odpowiedzialności administracyjnej.


Zapraszam do przeczytania dzisiejszego wpisu, w którym wyjaśniam podstawowe informacje o AI Act oraz to, czym jest system AI w rozumieniu rozporządzenia. 

Wyzwania związane z AI — co stoi za wdrożeniem AI Act? 

Zanim przejdziemy do samej treści AI Act, warto przyjrzeć się wyzwaniom, które doprowadziły do jego powstania. To właśnie one najlepiej pokazują, dlaczego Unia Europejska  zdecydowała się uregulować korzystanie ze sztucznej inteligencji.


Wśród najważniejszych problemów, które miały wpływ na kształt tych przepisów, znajdują się:

  • black box,
  • przetwarzanie danych,
  • prawa autorskie i pokrewne,
  • co jest dozwolone a co zakazane,
  • odpowiedzialność za AI.

Black Box

AI należy do nielicznych technologii, których wynik działania systemu nie zawsze da się jednoznacznie prześledzić i wyjaśnić. Takie nieprzejrzyste algorytmy określa się mianem „black box” – czyli „czarnej skrzynki”.

Dla firm oznacza to konieczność działania na dwóch poziomach:

  1. Twórcy Systemów AI będą musieli wykazać, jak działa ich oprogramowanie – AI Act wymusza większą przejrzystość algorytmów.
  2. Użytkownicy AI powinni wiedzieć, na jakich zasadach działa wykorzystywany system, zwłaszcza jeśli powierzają mu dane firmowe czy osobowe.

Więc…

  1. Jeśli tworzysz system oparty na AI – musisz dokładnie znać sposób jego działania.
  2. Jeśli korzystasz z AI – musisz rozumieć, jak działa, żeby wiedzieć, co może zrobić z Twoimi danymi i procesami.

W przeciwnym razie możesz nieświadomie udostępnić poufne dane np. do serwera w Chinach. A to dość niekomfortowa sytuacja.


Przetwarzanie danych, w tym danych osobowych 

Zagadnienie black box łączy się bezpośrednio z drugim wyzwaniem: danymi, a zwłaszcza ich przetwarzaniem zgodnie z przepisami RODO.

W dużym uproszczeniu AI uczy się na podstawie danych dostarczanych przez jej twórców i użytkowników. Natomiast wiele systemów korzysta też z ogólnodostępnych treści w Internecie, co dodatkowo utrudnia kontrolę nad tym, z czego dokładnie korzystają i jak „dochodzą” do swoich odpowiedzi.

Więc jeśli w firmie planujemy korzystać z AI, musimy zadać sobie kilka ważnych pytań – jeszcze zanim zaczniemy przetwarzać jakiekolwiek dane:

  • Jakie dane faktycznie możemy wprowadzać do Systemu AI? Czy są to dane osobowe, dane klientów, informacje poufne?
  • Czy system, z którego korzystamy, uczy się na podstawie tych danych – i co się z nimi dalej dzieje?
  • Czy dostawca Systemu AI ma prawo wykorzystywać te dane do dalszego trenowania modelu albo udostępniać je innym podmiotom?
  • Czy mamy odpowiednie podstawy prawne – zgody, zapisy w polityce prywatności lub umowach – które pozwalają na takie przetwarzanie?

To nie są pytania na potem. Od odpowiedzi zależy, czy działamy zgodnie z RODO – i czy nie wystawiamy się na realne ryzyko: kary, utraty zaufania klientów, wycieku danych.

Z punktu widzenia firmy stawką są dwie kwestie:

  1. Możliwość sensownego i legalnego wykorzystania danych, które już mamy – np. do analizy, personalizacji, automatyzacji.
  2. Ochrona tych danych – żeby nie wypłynęły w niekontrolowany sposób i nie narobiły problemów. Bo jeśli okaże się, że naruszono przepisy RODO, to w grę wchodzą nie tylko wizerunkowe straty, ale też kary finansowe – sięgające nawet 20 milionów euro lub 4% rocznego obrotu.

Prawa autorskie i pokrewne

Kolejny gorący temat to prawa autorskie do efektów pracy sztucznej inteligencji.
Kto ma prawo do grafik, tekstów, kodu czy innych treści wygenerowanych przez AI? Czy można je legalnie wykorzystywać, chronić, a nawet sprzedawać?

Te pytania, które wprost dotyczą firm – zarówno tych, które tworzą treści przy wsparciu AI, jak i tych, które zamierzają je komercjalizować.


Szczególnie istotne są dwa potencjalne problemy:

  1. Ryzyko naruszenia cudzych praw autorskich. To sytuacja, w której AI tworzy np. grafikę, która wygląda bardzo podobnie do już istniejącego obrazu – np. zdjęcia z banku zdjęć albo pracy innego artysty. Ty możesz nawet nie wiedzieć, że to „plagiat” – ale jeśli klient to opublikuje, może odpowiadać za naruszenie praw autorskich. Bo AI nie wymyśla od zera, tylko uczy się na cudzych pracach.
  2. Niepewność co do praw do własnych efektów pracy. Prawo autorskie chroni utwory stworzone przez człowieka. Jeśli grafikę, tekst czy kod stworzy wyłącznie AI – to formalnie nie ma autora, a więc nie ma też praw autorskich. A jeśli Twoi pracownicy stworzyli coś „z pomocą AI” to i tutaj nie ma prostej odpowiedzi. Trzeba będzie ocenić na ile praca człowieka jest twórcza a osiągnięty rezultat indywidualny, Czekamy na orzecznictwo sądów w tym zakresie, które określi (miejmy nadzieje) jasne zasady ustalenia, kiedy powstają prawa autorskie do wytworu stworzonego przez człowieka przy pomocy narzędzi AI.

W praktyce oznacza to, że firmy muszą zadbać o:

  1. jasne zasady korzystania z AI w procesie twórczym,
  2. dokumentowanie procesu twórczej pracy człowieka, który korzysta z AI jako narzędzia wspierającego,
  3. odpowiednie zapisy umowne z klientami (np. informacje o korzystaniu z AI, odpowiednie zapisy dotyczące praw autorskich lub know-how),
  4. świadomość, że nie każde dzieło stworzone z użyciem AI może podlegać ochronie prawnoautorskiej, a w niektórych przypadkach może nie mieć żadnego „właściciela” w rozumieniu prawa.

Należy jednak już na wstępie zaznaczyć, że AI Act w zasadzie w żaden sposób nie reguluje opisanych powyżej problemów dotyczących praw autorskich.


Co jest dozwolone, a co zakazane w AI? 

Podsumowując dotychczasowe wyzwania – sztuczna inteligencja może dziś działać całkowicie autonomicznie. Decydować o zatrudnieniu i zwolnieniu pracownika, przyznawać kredyty, oceniać ryzyko finansowe czy zachowanie użytkownika, profilować klientów, a nawet wpływać na poglądy polityczne i decyzje zakupowe.

Skala wpływu na ludzi, firmy i całe społeczeństwa jest ogromna – i nie zawsze pozytywna.

Dlatego konieczne stało się jasne określenie, do czego AI wolno wykorzystywać, jakie zastosowania wymagają dodatkowej kontroli, a które są całkowicie zakazane.

Właśnie to porządkuje AI Act. 

Napisz do nas, by otrzymać e-booka "AI Act krok po kroku: co zmienia nowe prawo o sztucznej inteligencji".
Skontaktuj się

Odpowiedzialność za AI

To, że nie stworzyłeś Systemu AI, nie znaczy, że nie ponosisz za niego odpowiedzialności. Jeśli korzystasz z AI w firmie – temat ryzyka prawnego dotyczy również Ciebie. AI decyduje, doradza, rekomenduje, czasem wręcz działa za człowieka. Ale gdy pojawi się błąd, szkoda albo skarga – ktoś przecież musi wziąć na siebie odpowiedzialność.


Wszystko zależy od tego, jaką rolę pełni Twoja firma:

  • Czy jest producentem własnego Systemu AI?
    Takie firmy nadal należą do mniejszości, ale ich liczba będzie rosła. W ich przypadku odpowiedzialność dotyczy m.in. bezpieczeństwa, przejrzystości i zgodności systemu z przepisami.
  • Czy korzysta z rozwiązań AI dostarczanych przez innych?
    Wówczas odpowiadamy za to, jak z nich korzystamy – np. czy przestrzegamy zasad ochrony danych, czy system nie narusza praw użytkowników, nie powoduje szkody, czy jego decyzje są zgodne z prawem.
  • Czy jest tylko użytkownikiem końcowym?
    I w tym wypadku trzeba wiedzieć, gdzie zaczyna się i kończy nasza odpowiedzialność – choćby za błędne rekomendacje, treści generowane przez AI czy decyzje podejmowane automatycznie.

Dlatego AI Act precyzuje obowiązki dostawców Systemów AI i podmiotów stosujących, a obowiązki te są zależne od poziomu ryzyka związanego ze stosowaniem danego rodzaju systemu i od ustalenia, czy jest to w ogóle System AI w rozumieniu AI Act.

Od kiedy obowiązuje AI Act? 

Akt o sztucznej inteligencji wszedł w życie 1 sierpnia 2024 roku. Nie wszystkie jego przepisy zaczęły jednak obowiązywać od razu – ich wdrażanie zostało rozłożone w czasie.

Ma to umożliwić firmom i instytucjom dostosowanie się do nowych obowiązków bez nadmiernych zakłóceń operacyjnych.


Harmonogram wygląda następująco:

  • 2 lutego 2025 r. – wchodzą w życie przepisy dotyczące zakazanych praktyk w obszarze AI, w tym:
    • stosowania technik podprogowych i manipulacyjnych,
    • scoringu społecznego,
    • oceniania ryzyka popełnienia przestępstwa na podstawie profilowania lub cech osobowości.
  • 2 sierpnia 2025 r. – zaczynają obowiązywać przepisy regulujące:
    • obowiązki dostawców modeli AI ogólnego przeznaczenia,
    • funkcjonowanie krajowych organów nadzoru,
    • zasady nakładania kar za naruszenia przepisów AI Act.
  • 2 sierpnia 2026 r. – rozpoczyna się stosowanie przepisów dotyczących Systemów AI wysokiego ryzyka, w tym obowiązków związanych z oceną ich zgodności.

Definicja sztucznej inteligencji 

Jeśli tworzysz lub korzystasz z oprogramowania, które nie spełnia definicji Systemu AI, to AI Act Cię nie dotyczy. W takiej sytuacji nowe przepisy nie będą miały zastosowania, a Ty nie musisz wprowadzać żadnych zmian.


AI Act definiuje system sztucznej inteligencji jako:

system maszynowy zaprojektowany do działania z różnym poziomem autonomii, który po wdrożeniu może wykazywać zdolność adaptacji i który w celu osiągnięcia wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.”


W praktyce, żeby uznać dane rozwiązanie za system AI, należy sprawdzić, czy spełnia kilka warunków:

  • Jest to system maszynowy – czyli oprogramowanie, które działa automatycznie lub półautomatycznie (co do zasady wszystkie systemy IT spełniają ten warunek).
  • Został zaprojektowany do działania z różnym poziomem autonomii – nie działa wyłącznie na podstawie zdefiniowanych reguł, może do pewnego stopnia samodzielnie określać plan działania dla osiągnięcia celu. j
  • Może wykazywać zdolność adaptacji – czyli „uczyć się” na podstawie danych: nie jest to warunek konieczny, ale jeśli ta cecha występuje, system niemal na pewno zostanie zakwalifikowany jako AI.
  • Wnioskuje, jak generować wyniki – na podstawie danych wejściowych podejmuje decyzje, udziela rekomendacji lub tworzy treści.
  • Wygenerowane wyniki wpływają na środowisko – fizyczne (np. sterowanie maszyną) lub wirtualne (np. rekomendacja produktu, automatyczna moderacja).

Jeśli Twój system spełnia te warunki – nawet częściowo – warto założyć, że podlega pod AI Act i wymaga przynajmniej wstępnej analizy zgodności.

Już teraz zapraszam Cię do następnego wpisu, w którym omówię bardziej szczegółowo, kogo konkretnie dotyczy rozporządzenie, a które podmioty nie muszą stosować przepisów.  rozporządzenia.

Podsumowanie 

Rozporządzenie AI Act wprowadza pierwsze w Unii Europejskiej pełne ramy prawne dotyczące tworzenia i wykorzystania systemów sztucznej inteligencji. Nowe przepisy nie tylko porządkują zasady stosowania AI, ale również nakładają szereg obowiązków - zarówno na producentów czy dostawców systemów AI, jak i użytkowników sztucznej intelgencji. 


Kluczową kwestią jest zrozumienie, czy dane rozwiązanie spełnia definicję syystemu AI - ponieważ tylko wówczas podlega regulacjom AI Act. 

Zastanawiasz się, czy AI Act dotyczy Twojej firmy? 

Czy Twoje systemy kwalifikują się jako systemy AI? 


Nie zostawiaj tych pytań bez odpowiedzi - szczególnie w czasach, gdy technologia rozwija się szybciej niż przepisy. 

Skontaktuj się z naszą kancelarią, jeśli potrzebujesz wsparcia w ocenie ryzyk prawnych, wdrożeniu zgodności z AI Act lub przygotowaniu dokumentacji AI w Twojej firmie. 

Specjalizujemy się w prawie nowych technologii i sztucznej inteligencji, a nasze doświadczenie łączymy z praktycznym podejściem do biznesu. 

Zostaw numer telefonu
Odezwiemy się najszybciej jak to możliwe.


    Administratorem Twoich danych osobowych jest Sawaryn i Partnerzy sp. k. z siedzibą w Warszawie (00-040), przy ul. Warecka 4/6 lok. 6. Twoje dane osobowe będą przetwarzane w celu odpowiedzi na przesłane zapytanie oraz archiwizacji formularza. Więcej informacji znajdziesz w naszym
    Regulaminie
    i
    Polityce Prywatności.



    Generic selectors
    Exact matches only
    Search in title
    Search in content
    Post Type Selectors
    Spis treści
    Proponowane artykuły
    Jak zabezpieczyć wypłatę zachowku lub ekwiwalentu za udziały w spółce z o.o. - bez naruszenia płynności finansowej
    Śmierć wspólnika w spółce z ograniczoną odpowiedzialnością to nie tylko...
    10 najciekawszych kar RODO w 2025 roku *
    Zdarza się, że o ochronie danych myślimy wyłącznie w kategorii...
    Odprawa bez ZUS-u? Jak legalnie budować prywatny kapitał dla członków zarządu
    W ostatnich latach coraz więcej spółek kapitałowych oraz ich właścicieli...
    1 2 3 30