{"id":3942,"date":"2025-07-25T07:36:16","date_gmt":"2025-07-25T07:36:16","guid":{"rendered":"https:\/\/sawaryn.com\/?p=3942"},"modified":"2026-04-10T13:06:48","modified_gmt":"2026-04-10T13:06:48","slug":"systemy-wysokiego-ryzyka-wedlug-ai-act","status":"publish","type":"post","link":"https:\/\/sawaryn.com\/en\/publikacje\/systemy-wysokiego-ryzyka-wedlug-ai-act\/","title":{"rendered":"Czym s\u0105 systemy AI wysokiego ryzyka wed\u0142ug AI Act"},"content":{"rendered":"<h1>Systemy AI wysokiego ryzyka w AI Act \u2013 obowi\u0105zki, przyk\u0142ady i konsekwencje dla Twojej firmy<\/h1>\n<p>AI Act to pierwsza unijna regulacja dotycz\u0105ca sztucznej inteligencji. Nak\u0142ada konkretne obowi\u0105zki na dostawc\u00f3w i u\u017cytkownik\u00f3w system\u00f3w AI \u2013 szczeg\u00f3lnie tych zakwalifikowanych jako wysokie ryzyko. Pe\u0142ne stosowanie przepis\u00f3w dla system\u00f3w wysokiego ryzyka wchodzi w \u017cycie w sierpniu 2026 roku. Poni\u017cej znajdziesz praktyczne wyja\u015bnienie: czym s\u0105 te systemy, kogo dotycz\u0105 obowi\u0105zki, jakie gro\u017c\u0105 konsekwencje i co zrobi\u0107, \u017ceby si\u0119 przygotowa\u0107.<\/p>\n<h2>Kontekst \u2013 AI Act i harmonogram wdro\u017cenia<\/h2>\n<p>Sztuczna inteligencja nie przestaje zaskakiwa\u0107. Jeszcze kilka lat temu postrzegana jako eksperyment technologiczny, dzi\u015b staje si\u0119 nieod\u0142\u0105cznym elementem funkcjonowania wi\u0119kszo\u015bci firm. AI wspiera procesy rekrutacyjne, analizuje dane klient\u00f3w, automatyzuje decyzje kredytowe i\u2026 tym samym budzi uzasadnione pytania:<\/p>\n<ul>\n<li>Czy takie systemy mog\u0105 by\u0107 wykorzystywane bez ogranicze\u0144?<\/li>\n<li>Kto odpowiada za ich decyzje?<\/li>\n<li>Jak zapewni\u0107 zgodno\u015b\u0107 system\u00f3w AI z przepisami?<\/li>\n<\/ul>\n<p>Unia Europejska odpowiedzia\u0142a na te wyzwania, przyjmuj\u0105c AI Act \u2014 <strong><a href=\"https:\/\/sawaryn.com\/en\/publikacje\/ograniczanie-naduzyc-sztucznej-inteligencji\/\">pierwsz\u0105 regulacj\u0119 dotycz\u0105c\u0105 tworzenia, udost\u0119pniania i stosowania AI<\/a><\/strong>. Rozporz\u0105dzenie wesz\u0142o w \u017cycie w sierpniu 2024 roku i jest wdra\u017cane etapami:<\/p>\n<ul>\n<li><strong>Luty 2025 r.<\/strong> \u2014 zakaz stosowania system\u00f3w AI stwarzaj\u0105cych niedopuszczalne ryzyko.<\/li>\n<li><strong>Sierpie\u0144 2025 r.<\/strong> \u2014 przepisy dotycz\u0105ce modeli AI og\u00f3lnego przeznaczenia.<\/li>\n<li><strong>Sierpie\u0144 2026 r.<\/strong> \u2014 pe\u0142ne stosowanie przepis\u00f3w, w tym obowi\u0105zki dotycz\u0105ce system\u00f3w wysokiego ryzyka.<\/li>\n<\/ul>\n<p>Oznacza to, \u017ce przedsi\u0119biorcy maj\u0105 przed sob\u0105 zaledwie kilka miesi\u0119cy na pe\u0142ne dostosowanie si\u0119 do wymog\u00f3w.<\/p>\n<p>Szczeg\u00f3ln\u0105 uwag\u0119 zwr\u00f3\u0107 na tzw. systemy wysokiego ryzyka. To w\u0142a\u015bnie one \u2014 cho\u0107 dozwolone \u2014 obj\u0119te s\u0105 \u015bcis\u0142ym nadzorem i szeregiem obowi\u0105zk\u00f3w. Zignorowanie tych regulacji mo\u017ce sko\u0144czy\u0107 si\u0119 nie tylko karami finansowymi (si\u0119gaj\u0105cymi nawet 15 milion\u00f3w euro), ale tak\u017ce odpowiedzialno\u015bci\u0105 za naruszenie praw podstawowych u\u017cytkownik\u00f3w czy klient\u00f3w.<\/p>\n<p>W dzisiejszym wpisie t\u0142umacz\u0119, czym wed\u0142ug rozporz\u0105dzenia AI Act s\u0105 systemy AI wysokiego ryzyka, kto i kiedy musi spe\u0142ni\u0107 okre\u015blone obowi\u0105zki, a tak\u017ce jak przygotowa\u0107 si\u0119 na wymogi, kt\u00f3re wchodz\u0105 w \u017cycie ju\u017c za kilka miesi\u0119cy.<\/p>\n<p>A je\u015bli po lekturze pojawi\u0105 si\u0119 pytania \u2014 jeste\u015bmy do dyspozycji. Nasza Kancelaria od lat doradza firmom w zakresie prawa IT. Ch\u0119tnie pomo\u017cemy r\u00f3wnie\u017c Tobie.<\/p>\n<h2>Czym s\u0105 systemy AI wysokiego ryzyka?<\/h2>\n<p>AI Act wprowadza <strong><a href=\"https:\/\/sawaryn.com\/en\/publikacje\/czym-jest-system-ai-w-rozumieniu-ai-act\/\">klasyfikacj\u0119 system\u00f3w sztucznej inteligencji<\/a><\/strong> na podstawie ryzyka, jakie nios\u0105 ze sob\u0105 ich zastosowania. <strong>Podej\u015bcie oparte na analizie ryzyka<\/strong> (tzw. risk-based approach) pozwala na zr\u00f3\u017cnicowanie regulacji w zale\u017cno\u015bci od wp\u0142ywu, jaki dany system AI mo\u017ce mie\u0107 na zdrowie, bezpiecze\u0144stwo i prawa podstawowe os\u00f3b fizycznych.<\/p>\n<h3>Cztery kategorie system\u00f3w AI wed\u0142ug AI Act<\/h3>\n<ol>\n<li><strong>Systemy zakazane<\/strong> \u2014 AI, kt\u00f3re mo\u017ce stwarza\u0107 powa\u017cne zagro\u017cenie dla praw i bezpiecze\u0144stwa os\u00f3b (np. technologie do masowego monitorowania, niekt\u00f3re formy biometrii). Zakaz ich stosowania obowi\u0105zuje od lutego 2025 roku.<\/li>\n<li><strong>Systemy wysokiego ryzyka<\/strong> \u2014 AI, kt\u00f3re wi\u0105\u017ce si\u0119 z wi\u0119kszym ryzykiem, ale mo\u017ce by\u0107 stosowane pod warunkiem spe\u0142nienia \u015bcis\u0142ych wymog\u00f3w (przyk\u0142ady poni\u017cej).<\/li>\n<li><strong>Systemy ograniczonego ryzyka<\/strong> \u2014 AI, kt\u00f3re mo\u017ce wymaga\u0107 pewnych obowi\u0105zk\u00f3w informacyjnych, ale nie podlega tak rygorystycznym regulacjom jak systemy wysokiego ryzyka.<\/li>\n<li><strong>Systemy niskiego ryzyka<\/strong> \u2014 AI, kt\u00f3re nie stwarza istotnego zagro\u017cenia i nie jest obj\u0119te szczeg\u00f3\u0142owymi przepisami.<\/li>\n<\/ol>\n<h3>Obszary, w kt\u00f3rych dzia\u0142aj\u0105 systemy wysokiego ryzyka<\/h3>\n<p>Systemy AI wysokiego ryzyka to te, kt\u00f3re maj\u0105 szczeg\u00f3lny wp\u0142yw na \u017cycie os\u00f3b fizycznych lub mog\u0105 w istotny spos\u00f3b wp\u0142yn\u0105\u0107 na spo\u0142ecze\u0144stwo. Obejmuje to m.in.:<\/p>\n<ul>\n<li><strong>Rekrutacja i zatrudnienie<\/strong> \u2014 systemy oceniaj\u0105ce kompetencje pracownik\u00f3w, podejmuj\u0105ce decyzje rekrutacyjne lub monitoruj\u0105ce wydajno\u015b\u0107.<\/li>\n<li><strong>Edukacja<\/strong> \u2014 AI oceniaj\u0105ce kompetencje uczni\u00f3w, rekomenduj\u0105ce \u015bcie\u017cki edukacyjne lub przyznaj\u0105ce stypendia.<\/li>\n<li><strong>Opieka zdrowotna<\/strong> \u2014 systemy wspieraj\u0105ce diagnozowanie, prognozowanie wynik\u00f3w leczenia, a tak\u017ce podejmowanie decyzji o przydziale zasob\u00f3w medycznych.<\/li>\n<li><strong>Zarz\u0105dzanie infrastruktur\u0105 krytyczn\u0105<\/strong> \u2014 AI wykorzystywane w energetyce, wodoci\u0105gach, transporcie publicznym czy zarz\u0105dzaniu sieciami energetycznymi.<\/li>\n<li><strong>Us\u0142ugi publiczne<\/strong> \u2014 systemy przyznaj\u0105ce pomoc spo\u0142eczn\u0105, oceniaj\u0105ce wnioski o \u015bwiadczenia lub us\u0142ugi.<\/li>\n<li><strong>Wymiar sprawiedliwo\u015bci<\/strong> \u2014 narz\u0119dzia wykorzystywane w analizach dowod\u00f3w, wyrokach czy ustalaniu odpowiedzialno\u015bci.<\/li>\n<\/ul>\n<p>Obszary te cechuje wysokie ryzyko zwi\u0105zane z mo\u017cliwymi b\u0142\u0119dami, kt\u00f3re mog\u0105 prowadzi\u0107 do powa\u017cnych konsekwencji dla ludzi \u2014 takich jak niesprawiedliwe odrzucenie aplikacji o prac\u0119, b\u0142\u0119dna diagnoza medyczna czy nieprawid\u0142owa ocena ryzyka kredytowego.<\/p>\n<p>Zgodno\u015b\u0107 z AI Act dla system\u00f3w wysokiego ryzyka nie jest tylko formalno\u015bci\u0105 \u2014 to zbi\u00f3r \u015bci\u015ble okre\u015blonych obowi\u0105zk\u00f3w, kt\u00f3re musz\u0105 by\u0107 spe\u0142nione, aby system m\u00f3g\u0142 zosta\u0107 wprowadzony do u\u017cytku i legalnie funkcjonowa\u0107 na rynku UE. Pe\u0142ne stosowanie tych przepis\u00f3w nast\u0105pi w sierpniu 2026 roku, co oznacza, \u017ce czas na wdro\u017cenie niezb\u0119dnych procedur jest ju\u017c bardzo kr\u00f3tki.<\/p>\n<h2>Przyk\u0142ady system\u00f3w AI wysokiego ryzyka<\/h2>\n<p>Systemy AI wysokiego ryzyka nie s\u0105 tylko abstrakcyjnymi rozwi\u0105zaniami technologicznymi \u2014 maj\u0105 realny wp\u0142yw na codzienne \u017cycie os\u00f3b oraz na funkcjonowanie firm w r\u00f3\u017cnych bran\u017cach. AI Act szczeg\u00f3lnie koncentruje si\u0119 na obszarach, w kt\u00f3rych sztuczna inteligencja mo\u017ce mie\u0107 decyduj\u0105cy wp\u0142yw na \u017cycie ludzi lub grup spo\u0142ecznych.<\/p>\n<p>Poni\u017cej om\u00f3wi\u0119 kilka przyk\u0142ad\u00f3w, kt\u00f3re dobrze ilustruj\u0105, jak te przepisy przek\u0142adaj\u0105 si\u0119 na praktyczne zastosowanie sztucznej inteligencji.<\/p>\n<h3>1. Rekrutacja i zarz\u0105dzanie personelem<\/h3>\n<p>Wiele firm stosuje systemy AI do selekcji kandydat\u00f3w do pracy, oceny ich umiej\u0119tno\u015bci, a nawet prognozowania ich przysz\u0142ej wydajno\u015bci w organizacji. Systemy rekrutacyjne oparte na AI mog\u0105 szybko przetwarza\u0107 du\u017c\u0105 liczb\u0119 aplikacji, weryfikowa\u0107 CV, a tak\u017ce ocenia\u0107 kandydat\u00f3w na podstawie danych zebranych z r\u00f3\u017cnych \u017ar\u00f3de\u0142 (np. LinkedIn, testy psychologiczne, dane z medi\u00f3w spo\u0142eczno\u015bciowych). Jednak takie narz\u0119dzia mog\u0105 r\u00f3wnie\u017c prowadzi\u0107 do dyskryminacji, je\u015bli algorytmy nie b\u0119d\u0105 odpowiednio zr\u00f3\u017cnicowane lub nie b\u0119d\u0105 uwzgl\u0119dnia\u0107 pe\u0142nego kontekstu. Niew\u0142a\u015bciwie zaprojektowane systemy mog\u0105 nie\u015bwiadomie faworyzowa\u0107 okre\u015blone grupy kandydat\u00f3w (np. w oparciu o p\u0142e\u0107, wiek, ras\u0119) lub opiera\u0107 si\u0119 na uprzedzeniach zawartych w danych.<\/p>\n<p>Zgodnie z AI Act, takie <strong>systemy musz\u0105 by\u0107 transparentne<\/strong> (tj. u\u017cytkownicy musz\u0105 wiedzie\u0107, jak i na jakich danych system bazuje) oraz <strong>sprawdzone pod k\u0105tem ryzyka dyskryminacji<\/strong>.<\/p>\n<h3>2. Scoring kredytowy i ocena ryzyka finansowego<\/h3>\n<p>AI wykorzystywane do oceny ryzyka kredytowego jest jednym z najcz\u0119stszych przyk\u0142ad\u00f3w system\u00f3w wysokiego ryzyka. Banki i instytucje finansowe w UE coraz cz\u0119\u015bciej korzystaj\u0105 z algorytm\u00f3w sztucznej inteligencji do <strong>oceny zdolno\u015bci kredytowej klient\u00f3w<\/strong>. AI analizuje ogromne zbiory danych, przewiduj\u0105c, jakie s\u0105 szanse, \u017ce osoba sp\u0142aci po\u017cyczk\u0119. Chocia\u017c takie rozwi\u0105zania mog\u0105 przyspieszy\u0107 proces decyzyjny, to mog\u0105 r\u00f3wnie\u017c prowadzi\u0107 do niedoskona\u0142o\u015bci oceny, szczeg\u00f3lnie je\u015bli dane wej\u015bciowe s\u0105 niew\u0142a\u015bciwie dobrane lub obarczone b\u0142\u0119dami. Dodatkowo, w przypadku b\u0142\u0119dnych decyzji, klienci mog\u0105 zosta\u0107 nies\u0142usznie odrzuceni lub otrzyma\u0107 gorsze warunki kredytowe, co mo\u017ce mie\u0107 powa\u017cne konsekwencje finansowe.<\/p>\n<p>Zgodnie z regulacjami AI Act, te systemy musz\u0105 by\u0107 sprawdzone pod k\u0105tem <strong>sprawiedliwo\u015bci i przejrzysto\u015bci w procesie podejmowania decyzji<\/strong>, oraz wymaga si\u0119, aby osoby, kt\u00f3re zosta\u0142y ocenione przez AI, mia\u0142y <strong>dost\u0119p do wyja\u015bnie\u0144 na temat decyzji<\/strong>.<\/p>\n<h3>3. Opieka zdrowotna<\/h3>\n<p>Sztuczna inteligencja jest r\u00f3wnie\u017c szeroko stosowana w <strong>diagnozowaniu chor\u00f3b<\/strong> oraz w <strong>procesie planowania leczenia<\/strong>. Przyk\u0142adem mog\u0105 by\u0107 systemy AI, kt\u00f3re wspomagaj\u0105 lekarzy w identyfikowaniu wczesnych oznak raka, interpretacji wynik\u00f3w bada\u0144 medycznych (np. obraz\u00f3w z rezonansu magnetycznego) lub przewidywaniu wynik\u00f3w terapii. Takie systemy maj\u0105 potencja\u0142, by ratowa\u0107 \u017cycie, ale tak\u017ce stwarzaj\u0105 wysokie ryzyko b\u0142\u0119dnych diagnoz, szczeg\u00f3lnie w przypadku niepe\u0142nych lub niew\u0142a\u015bciwie przetworzonych danych. Ponadto decyzje podejmowane przez AI mog\u0105 budzi\u0107 w\u0105tpliwo\u015bci dotycz\u0105ce odpowiedzialno\u015bci w przypadku b\u0142\u0119dnych wynik\u00f3w, zw\u0142aszcza je\u015bli systemy nie dzia\u0142aj\u0105 zgodnie z przeznaczeniem lub s\u0105 nieaktualne.<\/p>\n<p>AI Act k\u0142adzie du\u017cy nacisk na monitorowanie bezpiecze\u0144stwa tych system\u00f3w oraz wym\u00f3g przejrzysto\u015bci w podejmowaniu decyzji o zdrowiu pacjent\u00f3w.<\/p>\n<h3>4. Infrastruktura krytyczna<\/h3>\n<p>W kontek\u015bcie zarz\u0105dzania infrastruktur\u0105 krytyczn\u0105 \u2014 tak\u0105 jak sieci energetyczne, wodoci\u0105gowe czy transportowe \u2014 systemy AI s\u0105 wykorzystywane do optymalizacji zarz\u0105dzania i monitorowania obiekt\u00f3w o znaczeniu dla funkcjonowania pa\u0144stwa i spo\u0142ecze\u0144stwa. AI mo\u017ce przewidywa\u0107 awarie, optymalizowa\u0107 zu\u017cycie energii, a tak\u017ce reagowa\u0107 na zmiany w infrastrukturze. Jednak b\u0142\u0119dne dzia\u0142anie takich system\u00f3w mo\u017ce prowadzi\u0107 do awarii lub zatrzymania dostaw us\u0142ug podstawowych (np. przerwy w dostawie pr\u0105du lub wody), co nios\u0142oby za sob\u0105 ogromne konsekwencje dla zdrowia i \u017cycia obywateli.<\/p>\n<p>Zgodnie z AI Act, te systemy musz\u0105 spe\u0142nia\u0107 rygorystyczne standardy bezpiecze\u0144stwa, szczeg\u00f3lnie w kontek\u015bcie <strong>odporno\u015bci na cyberataki<\/strong>, oraz by\u0107 <strong>regularnie monitorowane<\/strong> pod k\u0105tem ich prawid\u0142owego dzia\u0142ania.<\/p>\n<p>Ka\u017cdy z tych przyk\u0142ad\u00f3w ilustruje, jak ogromny wp\u0142yw na codzienne \u017cycie ludzi maj\u0105 systemy AI wysokiego ryzyka. S\u0105 one u\u017cywane w tak wielu obszarach, \u017ce ich b\u0142\u0119dne dzia\u0142anie mo\u017ce nie\u015b\u0107 ogromne konsekwencje prawne, finansowe i zdrowotne. Z tego powodu AI Act stawia bardzo wyra\u017ane wymagania, kt\u00f3re maj\u0105 zapewni\u0107, \u017ce te systemy b\u0119d\u0105 odpowiedzialne, bezpieczne i sprawiedliwe.<\/p>\n<h2>Obowi\u0105zki dostawc\u00f3w system\u00f3w AI wysokiego ryzyka<\/h2>\n<p>Tworzenie, wdra\u017canie i wykorzystywanie system\u00f3w AI wysokiego ryzyka wi\u0105\u017ce si\u0119 z obowi\u0105zkiem spe\u0142nienia wielu wymaga\u0144, kt\u00f3rych celem jest zapewnienie ich <strong>bezpiecze\u0144stwa<\/strong>, <strong>przejrzysto\u015bci<\/strong> oraz <strong>zgodno\u015bci z przepisami prawa<\/strong>. AI Act nak\u0142ada szczeg\u00f3lne obowi\u0105zki na dostawc\u00f3w system\u00f3w (tj. firmy, kt\u00f3re projektuj\u0105, wytwarzaj\u0105 lub wdra\u017caj\u0105 systemy AI). Obowi\u0105zki te wejd\u0105 w pe\u0142ni w \u017cycie w sierpniu 2026 roku, co oznacza, \u017ce przedsi\u0119biorcy powinni ju\u017c teraz finalizowa\u0107 przygotowania.<\/p>\n<h3>1. System zarz\u0105dzania ryzykiem<\/h3>\n<p>Dostawcy system\u00f3w AI wysokiego ryzyka s\u0105 zobowi\u0105zani do sta\u0142ego zarz\u0105dzania ryzykiem, jakie mo\u017ce wynika\u0107 z dzia\u0142ania systemu. To podej\u015bcie ma obejmowa\u0107 ca\u0142y cykl \u017cycia systemu AI \u2014 od fazy projektowania, przez rozw\u00f3j, testy, a\u017c po wdro\u017cenie i monitorowanie jego funkcjonowania po wprowadzeniu do obrotu.<\/p>\n<p>Proces zarz\u0105dzania ryzykiem w ramach AI Act wymaga, aby:<\/p>\n<ul>\n<li><strong>Identyfikowa\u0107 i ocenia\u0107 ryzyka<\/strong> zwi\u0105zane z systemem (np. b\u0142\u0119dne decyzje, dyskryminacja, naruszenia prywatno\u015bci).<\/li>\n<li><strong>Wdro\u017cy\u0107 \u015brodki techniczne i organizacyjne<\/strong>, kt\u00f3re zminimalizuj\u0105 te ryzyka do poziomu akceptowalnego.<\/li>\n<li><strong>Regularnie testowa\u0107 i monitorowa\u0107 system<\/strong>, aby wykrywa\u0107 potencjalne problemy i dzia\u0142a\u0107 prewencyjnie.<\/li>\n<\/ul>\n<p>Dostawcy system\u00f3w AI musz\u0105 tak\u017ce opracowa\u0107 procedury nadzoru, kt\u00f3re zapewni\u0105, \u017ce system nie b\u0119dzie dzia\u0142a\u0142 w spos\u00f3b niekontrolowany lub niew\u0142a\u015bciwy.<\/p>\n<h3>2. Zarz\u0105dzanie danymi<\/h3>\n<p>Ka\u017cdy system AI jest zasilany danymi \u2014 dlatego AI Act szczeg\u00f3lnie podkre\u015bla znaczenie odpowiedniego zarz\u0105dzania danymi. Dane musz\u0105 by\u0107 rzetelne, zgodne z prawem i wolne od uprzedze\u0144. Oznacza to, \u017ce dostawcy musz\u0105 zapewni\u0107, \u017ce dane wykorzystywane w procesie uczenia maszynowego:<\/p>\n<ul>\n<li>S\u0105 <strong>przetwarzane zgodnie z przepisami ochrony danych osobowych<\/strong>, w tym RODO.<\/li>\n<li><strong>Nie zawieraj\u0105 uprzedze\u0144<\/strong> \u2014 aby systemy AI nie podejmowa\u0142y decyzji opartych na b\u0142\u0119dnych za\u0142o\u017ceniach, kt\u00f3re mog\u0105 prowadzi\u0107 do dyskryminacji.<\/li>\n<\/ul>\n<p>Dostawcy musz\u0105 tak\u017ce zapewni\u0107 minimalizacj\u0119 danych, co oznacza, \u017ce zbieranie danych do system\u00f3w AI powinno odbywa\u0107 si\u0119 w spos\u00f3b ograniczony do niezb\u0119dnego minimum. Pseudonimizacja i szyfrowanie danych s\u0105 r\u00f3wnie\u017c zalecane dla zapewnienia bezpiecze\u0144stwa informacji i ochrony prywatno\u015bci os\u00f3b, kt\u00f3rych dane s\u0105 przetwarzane.<\/p>\n<h3>3. Dokumentacja techniczna i logowanie dzia\u0142a\u0144<\/h3>\n<p>AI Act wymaga, aby dostawcy system\u00f3w wysokiego ryzyka przygotowali szczeg\u00f3\u0142ow\u0105 <strong>dokumentacj\u0119 techniczn\u0105 dotycz\u0105c\u0105 ich systemu<\/strong>. Dokumentacja ta powinna zawiera\u0107 informacje o:<\/p>\n<ul>\n<li>funkcjach systemu,<\/li>\n<li>architekturze algorytm\u00f3w,<\/li>\n<li>zastosowanych metodach uczenia maszynowego,<\/li>\n<li>procesach testowych i audytowych,<\/li>\n<li>\u015brodkach zaradczych w przypadku wykrycia ryzyk.<\/li>\n<\/ul>\n<p>Dostawcy musz\u0105 tak\u017ce zapewni\u0107, \u017ce wszystkie dzia\u0142ania systemu b\u0119d\u0105 <strong>rejestrowane (tzw. logowanie dzia\u0142a\u0144)<\/strong>. Logi s\u0105 niezb\u0119dne do:<\/p>\n<ul>\n<li>Przeprowadzania audyt\u00f3w w celu weryfikacji zgodno\u015bci systemu z wymaganiami AI Act.<\/li>\n<li>Identyfikowania b\u0142\u0119d\u00f3w oraz zapewnienia odpowiedzialno\u015bci za decyzje podejmowane przez AI.<\/li>\n<\/ul>\n<p>Rejestrowanie dzia\u0142a\u0144 jest szczeg\u00f3lnie istotne w systemach, kt\u00f3re podejmuj\u0105 decyzje wp\u0142ywaj\u0105ce na osoby fizyczne, jak w przypadku rekrutacji, oceny zdolno\u015bci kredytowej czy diagnoz medycznych.<\/p>\n<h3>4. Ocena zgodno\u015bci<\/h3>\n<p>Przed wprowadzeniem systemu AI wysokiego ryzyka na rynek, dostawcy musz\u0105 przej\u015b\u0107 przez formaln\u0105 procedur\u0119 oceny zgodno\u015bci. Jest to proces, w kt\u00f3rym ocenia si\u0119, czy system spe\u0142nia wszystkie wymagania okre\u015blone w AI Act.<\/p>\n<p>Ocena zgodno\u015bci powinna obejmowa\u0107:<\/p>\n<ul>\n<li><strong>Analiz\u0119 ryzyk<\/strong> zwi\u0105zanych z systemem AI.<\/li>\n<li><strong>Testy i audyty<\/strong>, kt\u00f3re pozwol\u0105 sprawdzi\u0107, czy system dzia\u0142a zgodnie z przyj\u0119tymi standardami bezpiecze\u0144stwa.<\/li>\n<li>Sporz\u0105dzenie <strong>deklaracji zgodno\u015bci UE<\/strong>, kt\u00f3ra b\u0119dzie potwierdza\u0107, \u017ce system spe\u0142nia wszystkie wymogi prawa.<\/li>\n<\/ul>\n<p>Po przeprowadzeniu oceny zgodno\u015bci, dostawca powinien umie\u015bci\u0107 oznaczenie CE na systemie, co oznacza, \u017ce system jest zgodny z europejskimi standardami prawnymi.<\/p>\n<h3>5. Rejestracja systemu w bazie danych UE<\/h3>\n<p>AI Act wymaga od dostawc\u00f3w system\u00f3w AI wysokiego ryzyka, aby zarejestrowali swoje systemy w unijnej bazie danych. Rejestracja ta ma na celu:<\/p>\n<ul>\n<li>Zwi\u0119kszenie <strong>przejrzysto\u015bci<\/strong> rynku AI.<\/li>\n<li>Umo\u017cliwienie organom nadzoru monitorowania system\u00f3w, kt\u00f3re mog\u0105 mie\u0107 du\u017cy wp\u0142yw na prawa i bezpiecze\u0144stwo obywateli.<\/li>\n<\/ul>\n<p>Zarejestrowanie systemu w bazie danych UE pozwala r\u00f3wnie\u017c na \u0142atwiejsze przeprowadzanie audyt\u00f3w i kontroli przez odpowiednie organy.<\/p>\n<p>Dostawcy system\u00f3w AI wysokiego ryzyka maj\u0105 wi\u0119c wiele obowi\u0105zk\u00f3w, kt\u00f3re maj\u0105 na celu zapewnienie odpowiedzialnego i bezpiecznego wdro\u017cenia AI. Spe\u0142nienie tych wymog\u00f3w jest warunkiem zapobiegania ryzyku b\u0142\u0119d\u00f3w i ochrony praw u\u017cytkownik\u00f3w \u2014 szczeg\u00f3lnie w przypadku system\u00f3w, kt\u00f3re mog\u0105 wp\u0142ywa\u0107 na \u017cycie ludzi w tak wielu obszarach.<\/p>\n<h2>Obowi\u0105zki u\u017cytkownik\u00f3w system\u00f3w AI wysokiego ryzyka<\/h2>\n<p>AI Act nak\u0142ada tak\u017ce pewne obowi\u0105zki na u\u017cytkownik\u00f3w system\u00f3w AI wysokiego ryzyka \u2014 osoby lub organizacje, kt\u00f3re korzystaj\u0105 z tych technologii. Chocia\u017c ich odpowiedzialno\u015b\u0107 jest mniejsza ni\u017c dostawc\u00f3w, to wci\u0105\u017c musz\u0105 spe\u0142nia\u0107 kilka wa\u017cnych wymog\u00f3w, by zapewni\u0107 bezpieczne i zgodne z prawem u\u017cytkowanie AI.<\/p>\n<h3>1. Zgodne u\u017cycie<\/h3>\n<p>U\u017cytkownicy system\u00f3w AI wysokiego ryzyka musz\u0105 korzysta\u0107 z nich zgodnie z dokumentacj\u0105 dostarczon\u0105 przez dostawc\u0119. Oznacza to przestrzeganie zalece\u0144 producenta, aby unikn\u0105\u0107 b\u0142\u0119d\u00f3w, kt\u00f3re mog\u0142yby prowadzi\u0107 do ryzyk, takich jak niew\u0142a\u015bciwe decyzje.<\/p>\n<h3>2. Zapewnienie nadzoru cz\u0142owieka<\/h3>\n<p>Wszystkie systemy AI wysokiego ryzyka musz\u0105 dzia\u0142a\u0107 pod nadzorem cz\u0142owieka. U\u017cytkownicy musz\u0105 mie\u0107 zapewnion\u0105 mo\u017cliwo\u015b\u0107 monitorowania decyzji podejmowanych przez AI, zw\u0142aszcza w obszarach, kt\u00f3re mog\u0105 mie\u0107 du\u017cy wp\u0142yw na osoby, jak rekrutacja czy ocena kredytowa. Nadz\u00f3r powinien by\u0107 sprawowany przez osob\u0119 odpowiednio przeszkolon\u0105.<\/p>\n<h3>3. Jako\u015b\u0107 danych wej\u015bciowych<\/h3>\n<p>U\u017cytkownicy odpowiadaj\u0105 za jako\u015b\u0107 danych, kt\u00f3re przekazuj\u0105 systemowi. Dane musz\u0105 by\u0107 rzetelne i odpowiednio przygotowane, aby AI mog\u0142o dzia\u0142a\u0107 w spos\u00f3b sprawiedliwy i dok\u0142adny. W szczeg\u00f3lno\u015bci u\u017cytkownicy powinni unika\u0107 wprowadzania danych, kt\u00f3re mog\u0105 wprowadza\u0107 uprzedzenia lub ogranicza\u0107 zakres dzia\u0142ania systemu.<\/p>\n<h3>4. Reakcja na ryzyko i logowanie zdarze\u0144<\/h3>\n<p>Je\u015bli system zaczyna dzia\u0142a\u0107 niew\u0142a\u015bciwie lub pojawiaj\u0105 si\u0119 nieprawid\u0142owe wyniki, u\u017cytkownicy maj\u0105 obowi\u0105zek przerwa\u0107 dzia\u0142anie systemu i poinformowa\u0107 dostawc\u0119. Powinni tak\u017ce zachowa\u0107 logi zdarze\u0144, kt\u00f3re umo\u017cliwi\u0105 p\u00f3\u017aniejsz\u0105 analiz\u0119 i identyfikacj\u0119 przyczyn problem\u00f3w. Logi musz\u0105 by\u0107 przechowywane przez co najmniej 6 miesi\u0119cy.<\/p>\n<h2>Wyj\u0105tki \u2014 kiedy system AI nie b\u0119dzie uznawany za system wysokiego ryzyka?<\/h2>\n<p>Chocia\u017c AI Act nak\u0142ada szczeg\u00f3lne wymagania na systemy AI wysokiego ryzyka, istniej\u0105 pewne wyj\u0105tki, kt\u00f3re mog\u0105 zwolni\u0107 systemy z pe\u0142nego zakresu regulacji. Warto je zna\u0107, poniewa\u017c mog\u0105 one dotyczy\u0107 system\u00f3w, kt\u00f3re na pierwszy rzut oka wydaj\u0105 si\u0119 nale\u017ce\u0107 do kategorii wysokiego ryzyka.<\/p>\n<h3>Kiedy system AI nie b\u0119dzie uznawany za wysoki ryzyko?<\/h3>\n<p>System AI mo\u017ce nie zosta\u0107 zakwalifikowany jako wysoki ryzyko, mimo \u017ce dzia\u0142a w obszarze wymienionym w za\u0142\u0105czniku III AI Act, je\u015bli:<\/p>\n<ul>\n<li>Nie stwarza istotnego ryzyka dla zdrowia, bezpiecze\u0144stwa lub praw podstawowych os\u00f3b fizycznych.<\/li>\n<li>Nie prowadzi profilowania os\u00f3b fizycznych \u2014 je\u015bli system nie analizuje cech os\u00f3b (np. zachowania, dane demograficzne) w celu przypisania im okre\u015blonego \u201eprofilu&quot;.<\/li>\n<\/ul>\n<h3>Przyk\u0142ady zastosowa\u0144, kt\u00f3re mog\u0105 skorzysta\u0107 z wyj\u0105tku<\/h3>\n<ul>\n<li><strong>Proste systemy proceduralne<\/strong> \u2014 np. narz\u0119dzia do przetwarzania faktur, kt\u00f3re nie anga\u017cuj\u0105 si\u0119 w skomplikowane decyzje dotycz\u0105ce os\u00f3b fizycznych.<\/li>\n<li><strong>Wykrywanie wzorc\u00f3w<\/strong> \u2014 systemy, kt\u00f3re jedynie wykrywaj\u0105 pewne wzorce w danych, ale nie podejmuj\u0105 decyzji na ich podstawie.<\/li>\n<li><strong>Systemy wspomagaj\u0105ce cz\u0142owieka<\/strong> \u2014 AI, kt\u00f3re dzia\u0142a jako narz\u0119dzie pomocnicze, ale ostateczna decyzja nale\u017cy do cz\u0142owieka (np. rekomendacje w procesie rekrutacji).<\/li>\n<\/ul>\n<h3>Wymogi dokumentacyjne przy stosowaniu wyj\u0105tku<\/h3>\n<p>Mimo \u017ce system mo\u017ce skorzysta\u0107 z wyj\u0105tku, dokumentowanie decyzji o zastosowaniu wyj\u0105tku jest obowi\u0105zkowe. Dostawcy i u\u017cytkownicy musz\u0105 sporz\u0105dzi\u0107 ocen\u0119, kt\u00f3ra jasno okre\u015bli, dlaczego system nie spe\u0142nia kryteri\u00f3w systemu wysokiego ryzyka. Rejestracja systemu w unijnej bazie danych nadal mo\u017ce by\u0107 wymagana, w zale\u017cno\u015bci od decyzji organ\u00f3w nadzoru.<\/p>\n<h3>Zmiany w za\u0142\u0105czniku III AI Act<\/h3>\n<p>Warto pami\u0119ta\u0107, \u017ce za\u0142\u0105cznik III do AI Act, kt\u00f3ry definiuje systemy wysokiego ryzyka, mo\u017ce by\u0107 zmieniany przez Komisj\u0119 Europejsk\u0105 w miar\u0119 rozwoju technologii. Nowe systemy mog\u0105 zosta\u0107 dodane do listy, a obecne mog\u0105 zosta\u0107 usuni\u0119te lub zmodyfikowane, je\u015bli stwarzaj\u0105 ni\u017csze ryzyko.<\/p>\n<p>Zrozumienie wyj\u0105tk\u00f3w pozwala lepiej oceni\u0107, czy Tw\u00f3j system AI rzeczywi\u015bcie podlega pe\u0142nym wymogom AI Act, czy te\u017c mo\u017ce korzysta\u0107 z wyj\u0105tk\u00f3w, co mo\u017ce wp\u0142yn\u0105\u0107 na spos\u00f3b przygotowania i wdra\u017cania regulacji w Twojej firmie.<\/p>\n<h2>Jakie mog\u0105 by\u0107 konsekwencje braku zgodno\u015bci z AI Act?<\/h2>\n<p>AI Act wprowadza wysokie standardy dla system\u00f3w sztucznej inteligencji, szczeg\u00f3lnie w zakresie system\u00f3w wysokiego ryzyka. Niezastosowanie si\u0119 do tych regulacji mo\u017ce wi\u0105za\u0107 si\u0119 z powa\u017cnymi konsekwencjami prawno-finansowymi, kt\u00f3re obejmuj\u0105 wysokie kary oraz odpowiedzialno\u015b\u0107 cywiln\u0105 i administracyjn\u0105.<\/p>\n<h3>Kary finansowe<\/h3>\n<p>W przypadku naruszenia przepis\u00f3w AI Act, dostawcy i u\u017cytkownicy system\u00f3w AI wysokiego ryzyka mog\u0105 zosta\u0107 ukarani kar\u0105 finansow\u0105. Wysoko\u015b\u0107 kary zale\u017cy od rodzaju naruszenia oraz skali dzia\u0142alno\u015bci firmy.<\/p>\n<ul>\n<li>Maksymalna kara za niezgodno\u015b\u0107 z przepisami AI Act mo\u017ce wynie\u015b\u0107 nawet <strong>15 milion\u00f3w euro<\/strong> lub <strong>3% rocznego \u015bwiatowego obrotu przedsi\u0119biorstwa<\/strong> \u2014 w zale\u017cno\u015bci od tego, kt\u00f3ra warto\u015b\u0107 jest <strong>wy\u017csza<\/strong>.<\/li>\n<li>Dodatkowe kary mog\u0105 dotyczy\u0107 przypadk\u00f3w, w kt\u00f3rych organizacja:\n<ul>\n<li>Nie przeprowadzi\u0142a oceny zgodno\u015bci systemu AI,<\/li>\n<li>Zlekcewa\u017cy\u0142a wym\u00f3g rejestracji systemu w bazie danych UE,<\/li>\n<li>Zignorowa\u0142a wymogi dotycz\u0105ce transparentno\u015bci i przejrzysto\u015bci dzia\u0142ania system\u00f3w AI.<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<h3>Odpowiedzialno\u015b\u0107 administracyjna<\/h3>\n<p>Poza karami finansowymi, organizacje mog\u0105 r\u00f3wnie\u017c ponosi\u0107 odpowiedzialno\u015b\u0107 administracyjn\u0105:<\/p>\n<ul>\n<li><strong>Zakaz dzia\u0142alno\u015bci na rynku UE<\/strong> dla system\u00f3w AI, kt\u00f3re nie spe\u0142niaj\u0105 wymaga\u0144 AI Act. Mo\u017ce to obejmowa\u0107 wycofanie produkt\u00f3w lub zakaz ich dalszego u\u017cytkowania.<\/li>\n<li><strong>Zawieszenie lub cofni\u0119cie rejestracji systemu w unijnej bazie danych<\/strong>, co oznacza, \u017ce nie b\u0119dzie on m\u00f3g\u0142 by\u0107 legalnie oferowany ani wykorzystywany w UE.<\/li>\n<\/ul>\n<h3>Odpowiedzialno\u015b\u0107 cywilna<\/h3>\n<p>Naruszenie regulacji dotycz\u0105cych AI Act mo\u017ce r\u00f3wnie\u017c prowadzi\u0107 do odpowiedzialno\u015bci cywilnej wobec os\u00f3b lub organizacji poszkodowanych przez b\u0142\u0119dne dzia\u0142anie system\u00f3w AI:<\/p>\n<ul>\n<li><strong>Rekompensata za szkody<\/strong> \u2014 je\u015bli system AI podj\u0105\u0142 b\u0142\u0119dn\u0105 decyzj\u0119, kt\u00f3ra mia\u0142a negatywne konsekwencje (np. b\u0142\u0119dna diagnoza medyczna, nieuzasadnione odrzucenie wniosku kredytowego), firma mo\u017ce by\u0107 zobowi\u0105zana do zap\u0142aty odszkodowania.<\/li>\n<li><strong>Odpowiedzialno\u015b\u0107 za b\u0142\u0119dne decyzje<\/strong> \u2014 firmy, kt\u00f3re wdra\u017caj\u0105 systemy AI wysokiego ryzyka, mog\u0105 ponosi\u0107 odpowiedzialno\u015b\u0107 za wyniki ich dzia\u0142ania, je\u015bli nie wprowadzi\u0142y odpowiednich \u015brodk\u00f3w nadzoru lub zarz\u0105dzania ryzykiem.<\/li>\n<\/ul>\n<h3>Strata reputacji<\/h3>\n<p>Nieprzestrzeganie AI Act mo\u017ce r\u00f3wnie\u017c skutkowa\u0107 strat\u0105 reputacji firmy, co w d\u0142u\u017cszej perspektywie mo\u017ce wp\u0142yn\u0105\u0107 na:<\/p>\n<ul>\n<li>Zaufanie konsument\u00f3w i partner\u00f3w biznesowych,<\/li>\n<li>Wzrost ryzyka zwi\u0105zanego z przysz\u0142ymi inwestycjami i wsp\u00f3\u0142pracami,<\/li>\n<li>Dyskwalifikacj\u0119 w przetargach publicznych lub utrat\u0119 dost\u0119pu do rynk\u00f3w unijnych.<\/li>\n<\/ul>\n<p>Zgodno\u015b\u0107 z AI Act to nie tylko kwestia unikni\u0119cia kar, ale tak\u017ce zapewnienia bezpiecze\u0144stwa i odpowiedzialnego wykorzystania technologii, kt\u00f3re w przeciwnym razie mog\u0105 prowadzi\u0107 do ryzyk prawnych, finansowych i spo\u0142ecznych.<\/p>\n<h2>Jak wygl\u0105da ochrona danych osobowych przy systemach AI wysokiego ryzyka?<\/h2>\n<p>Zgodno\u015b\u0107 z <strong><a href=\"https:\/\/sawaryn.com\/en\/publikacje\/co-to-jest-rodo\/\">RODO (Rozporz\u0105dzenie o Ochronie Danych Osobowych)<\/a><\/strong> to osobny, r\u00f3wnoleg\u0142y wym\u00f3g w kontek\u015bcie system\u00f3w AI wysokiego ryzyka \u2014 te systemy cz\u0119sto przetwarzaj\u0105 dane osobowe, kt\u00f3re s\u0105 szczeg\u00f3lnie wra\u017cliwe. AI Act i RODO musz\u0105 by\u0107 traktowane r\u00f3wnolegle, szczeg\u00f3lnie gdy systemy AI operuj\u0105 na danych osobowych os\u00f3b fizycznych, np. w procesie rekrutacji czy w ocenie zdolno\u015bci kredytowej. Zgodnie z RODO administratorem danych jest podmiot, kt\u00f3ry decyduje o celach i sposobach przetwarzania danych, a podmiot dostarczaj\u0105cy AI pe\u0142ni rol\u0119 <strong><a href=\"https:\/\/sawaryn.com\/en\/publikacje\/jak-kontrolowac-podmioty-przetwarzajace-dane-osobowe\/\">procesora danych<\/a><\/strong>.<\/p>\n<h3>Zasady przetwarzania danych w systemach AI<\/h3>\n<p>Przetwarzanie danych osobowych w systemach AI wysokiego ryzyka musi spe\u0142nia\u0107 nast\u0119puj\u0105ce wymagania:<\/p>\n<ul>\n<li><strong>Minimalizacja danych<\/strong> \u2014 zbieranie tylko tych informacji, kt\u00f3re s\u0105 niezb\u0119dne do realizacji okre\u015blonego celu.<\/li>\n<li><strong>Pseudonimizacja<\/strong> \u2014 przetwarzanie danych osobowych w taki spos\u00f3b, aby nie by\u0142o mo\u017cliwe zidentyfikowanie, do kogo one nale\u017c\u0105, bez dost\u0119pu do innych informacji, przechowywanych bezpiecznie w innym miejscu.<\/li>\n<li><strong>Szyfrowanie danych<\/strong> \u2014 jako zalecany \u015brodek ochrony prywatno\u015bci.<\/li>\n<li><strong>Realizacja praw os\u00f3b, kt\u00f3rych dane dotycz\u0105<\/strong> \u2014 ka\u017cdy system AI przetwarzaj\u0105cy dane osobowe musi umo\u017cliwia\u0107 realizacj\u0119 <strong><a href=\"https:\/\/sawaryn.com\/en\/publikacje\/w-jaki-sposob-realizowac-prawa-osob-fizycznych-zgodnie-z-rodo\/\">prawa do dost\u0119pu, prawa do sprostowania i prawa do usuni\u0119cia danych<\/a><\/strong> (tzw. \u201eprawo do bycia zapomnianym&quot;).<\/li>\n<\/ul>\n<h3>DPIA i dane szczeg\u00f3lnych kategorii<\/h3>\n<p>Dostawcy system\u00f3w musz\u0105 przeprowadza\u0107 <strong><a href=\"https:\/\/sawaryn.com\/en\/publikacje\/audyt-rodo-gdpr-outsourcing-iod\/\">ocen\u0119 skutk\u00f3w przetwarzania danych osobowych (DPIA)<\/a><\/strong>, zw\u0142aszcza je\u015bli istnieje wysokie ryzyko naruszenia praw i wolno\u015bci os\u00f3b. Je\u015bli system AI przetwarza szczeg\u00f3lne kategorie danych osobowych, jak dane zdrowotne czy dane biometryczne, wymagana jest dodatkowa zgoda osoby, kt\u00f3rej dane s\u0105 przetwarzane, oraz zapewnienie dodatkowych \u015brodk\u00f3w ochrony.<\/p>\n<h3>Obowi\u0105zki informacyjne i konsekwencje narusze\u0144<\/h3>\n<p>Zgodnie z <strong>AI Act<\/strong>, dostawcy system\u00f3w AI wysokiego ryzyka musz\u0105 zapewni\u0107 <strong>przejrzysto\u015b\u0107<\/strong> i informowa\u0107 u\u017cytkownik\u00f3w o tym, jak ich dane s\u0105 wykorzystywane. W przypadku naruszenia ochrony danych, organizacja ma obowi\u0105zek <strong>poinformowa\u0107<\/strong> zar\u00f3wno u\u017cytkownik\u00f3w, jak i odpowiednie organy nadzorcze, w tym <strong>UODO<\/strong>, w ci\u0105gu 72 godzin. Niedostosowanie si\u0119 do wymog\u00f3w <strong>GDPR<\/strong> w kontek\u015bcie AI mo\u017ce prowadzi\u0107 do <strong>wysokich kar finansowych<\/strong>, kt\u00f3re mog\u0105 si\u0119ga\u0107 do 20 mln euro lub 4% rocznego obrotu, w zale\u017cno\u015bci od tego, kt\u00f3ra kwota jest wy\u017csza.<\/p>","protected":false},"excerpt":{"rendered":"<p>Sztuczna inteligencja nie przestaje zaskakiwa\u0107. Jeszcze kilka lat temu postrzegana jako eksperyment technologiczny, dzi\u015b staje si\u0119 nieod\u0142\u0105cznym elementem funkcjonowania wi\u0119kszo\u015bci firm. AI wspiera procesy rekrutacyjne, analizuje dane klient\u00f3w, automatyzuje decyzje kredytowe i\u2026 tym samym budzi uzasadnione pytania. Czy takie systemy mog\u0105 by\u0107 wykorzystywane bez ogranicze\u0144? Kto odpowiada za ich decyzje? Jak zapewni\u0107 zgodno\u015b\u0107 system\u00f3w AI [&hellip;]<\/p>","protected":false},"author":4,"featured_media":4179,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"inline_featured_image":false,"footnotes":""},"categories":[991,55],"tags":[],"language":[],"ppma_author":[72],"class_list":["post-3942","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-it-ai","category-dla-przedsiebiorcy"],"acf":[],"jetpack_featured_media_url":"https:\/\/sawaryn.com\/wp-content\/uploads\/2026\/04\/airops-upload-5.png","authors":[{"term_id":72,"user_id":4,"is_guest":0,"slug":"mateuszs","display_name":"Mateusz Sawaryn","avatar_url":{"url":"https:\/\/sawaryn.com\/wp-content\/uploads\/2022\/08\/Mateusz-Sawaryn-foto-4.png","url2x":"https:\/\/sawaryn.com\/wp-content\/uploads\/2022\/08\/Mateusz-Sawaryn-foto-4.png"},"user_url":"https:\/\/www.linkedin.com\/in\/mateuszsawaryn\/","last_name":"Sawaryn","first_name":"Mateusz","description":""}],"_links":{"self":[{"href":"https:\/\/sawaryn.com\/en\/wp-json\/wp\/v2\/posts\/3942","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/sawaryn.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/sawaryn.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/sawaryn.com\/en\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/sawaryn.com\/en\/wp-json\/wp\/v2\/comments?post=3942"}],"version-history":[{"count":11,"href":"https:\/\/sawaryn.com\/en\/wp-json\/wp\/v2\/posts\/3942\/revisions"}],"predecessor-version":[{"id":4180,"href":"https:\/\/sawaryn.com\/en\/wp-json\/wp\/v2\/posts\/3942\/revisions\/4180"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sawaryn.com\/en\/wp-json\/wp\/v2\/media\/4179"}],"wp:attachment":[{"href":"https:\/\/sawaryn.com\/en\/wp-json\/wp\/v2\/media?parent=3942"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sawaryn.com\/en\/wp-json\/wp\/v2\/categories?post=3942"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sawaryn.com\/en\/wp-json\/wp\/v2\/tags?post=3942"},{"taxonomy":"language","embeddable":true,"href":"https:\/\/sawaryn.com\/en\/wp-json\/wp\/v2\/language?post=3942"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/sawaryn.com\/en\/wp-json\/wp\/v2\/ppma_author?post=3942"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}