
Sztuczna inteligencja usprawnia pracę w coraz większej liczbie firm – od marketingu, przez obsługę klienta, po zespoły deweloperskie i prawnicze. Ale wdrożenie AI to nie tylko wybór narzędzia. To odpowiedzialność za dane, ludzi i zgodność z przepisami. Poniżej znajdziesz konkretne kroki, które warto podjąć – niezależnie od wielkości firmy czy branży.
Jeśli poza prawną stroną interesują Cię techniczne aspekty budowania rozwiązań opartych o sztuczną inteligencję, np. przy użyciu Azure OpenAI – zapraszam do lektury naszego wpisu „Jak wykorzystać Azure OpenAI do tworzenia oprogramowania AI".
Ustalenie jasnych zasad używania narzędzi AI w firmie to punkt wyjścia dla bezpiecznego wdrożenia. Dzięki polityce:
Brak wewnętrznych regulacji prowadzi do niekontrolowanego używania narzędzi. Pracownicy – nie mając wytycznych – mogą wprowadzać do narzędzi AI dane objęte tajemnicą przedsiębiorstwa, dane kontaktowe lub fragmenty kodu. Skutki:
Zanim wdrożysz formalną politykę, sprawdź, z jakich narzędzi już się korzysta – często bez wiedzy zarządu czy działu IT. Pracownicy mogą używać popularnych generatorów tekstów, analiz danych czy narzędzi do kodowania, które nie zostały wcześniej zweryfikowane. Celem jest identyfikacja wykorzystywanych rozwiązań, ocena ich ryzyk i decyzja, które z nich mogą być dalej używane, a które trzeba zablokować.
Darmowe lub powszechnie dostępne narzędzia AI często działają w oparciu o modele trenowane na danych wprowadzonych przez użytkowników. Oznacza to, że informacje wpisywane przez pracowników – w tym np. dane klientów – mogą stać się częścią zbioru danych uczących. Firma traci wtedy kontrolę nad poufnymi informacjami, a nawet nad własnością intelektualną.
Wprowadzenie nowych technologii wymaga aktualizacji nie tylko procedur wewnętrznych, ale też postanowień umów zawieranych z osobami, które z tych narzędzi korzystają. Celem jest określenie obowiązków związanych z odpowiedzialnym korzystaniem z AI – zarówno dla pracowników etatowych, jak i współpracowników B2B.
Każdy użytkownik narzędzi AI w firmie może – nawet nieświadomie – narazić organizację na poważne ryzyka prawne:
Dlatego odpowiedzialność i obowiązki informacyjne muszą być wpisane wprost do umów z zespołem.
Firmy wdrażające AI powinny dążyć do pełnej przejrzystości wobec swoich klientów. Cel: budowanie zaufania oraz zapewnienie klientom informacji o tym, czy ich dane mogą być przetwarzane przez narzędzia oparte na sztucznej inteligencji.
Klienci powinni wiedzieć, czy i jak ich dane są przetwarzane przez AI. Wykorzystanie narzędzi sztucznej inteligencji bez uprzedniej informacji może zostać odebrane jako nadużycie zaufania, a w niektórych przypadkach prowadzić do zarzutów o naruszenie RODO lub zasad współpracy.
Wdrożenie sztucznej inteligencji do realizacji usług wymaga dostosowania treści umów zawieranych z klientami. Cel: określenie, w jakim zakresie AI może być wykorzystywana oraz kto ponosi odpowiedzialność za efekty jej działania.
Wykorzystanie AI – nawet jako wsparcia pracy człowieka – może rodzić nieprzewidziane skutki: od niezamierzonych błędów po wygenerowanie treści naruszających prawa osób trzecich. Jeśli w umowie nie ma zapisów uwzględniających te ryzyka, obie strony mogą mieć trudność w ustaleniu, kto odpowiada za ewentualne szkody.
AI Act to pierwsze rozporządzenie regulujące sztuczną inteligencję w Unii Europejskiej – jest już stosowane. Sprawdź, czy tworzone lub wdrażane w Twojej firmie rozwiązania AI podlegają tym regulacjom i jakie obowiązki z tego wynikają. Dotyczy to w szczególności firm rozwijających własne systemy AI lub integrujących takie narzędzia w ramach oferowanych produktów i usług.
AI Act nakłada konkretne obowiązki prawne, zwłaszcza na twórców i dostawców systemów AI zakwalifikowanych jako wysokiego ryzyka:
Niedopełnienie tych obowiązków może skutkować sankcjami finansowymi i wstrzymaniem działania danego rozwiązania na rynku UE.
On-premise – czyli rozwiązania instalowane i obsługiwane na infrastrukturze lokalnej firmy – pozwalają zachować pełną kontrolę nad danymi i ograniczyć ekspozycję na zagrożenia zewnętrzne. Wdróż je tam, gdzie ujawnienie danych mogłoby spowodować poważne konsekwencje prawne lub finansowe.
Większość ogólnodostępnych narzędzi AI – zwłaszcza tych działających w modelu SaaS – opiera się na rozwiązaniach chmurowych, nad którymi użytkownik nie ma pełnej kontroli. Ryzyka:
W przypadku danych poufnych lub niejawnych takie ryzyko jest nie do zaakceptowania.
Co powinna zawierać polityka korzystania z AI w firmie? Polityka powinna określać listę dopuszczonych narzędzi AI, cele, do których można je wykorzystywać (np. marketing, kodowanie, analityka), oraz jasne zakazy – np. użycia AI do decyzji kadrowych czy generowania treści prawnych. Oprócz tego wpisz do niej zasady dotyczące danych: jakie informacje wolno wprowadzać do narzędzi, obowiązek audytu bezpieczeństwa przed wdrożeniem nowego rozwiązania, separację dostępu między zespołami oraz wymóg korzystania z płatnych wersji narzędzi dających kontrolę nad przetwarzaniem danych.
Jak sprawdzić, czy narzędzia AI używane już przez zespół są bezpieczne i zgodne z przepisami? Zacznij od inwentaryzacji – ustal, z jakich narzędzi AI korzystają poszczególne zespoły i osoby, także tych używanych bez wiedzy zarządu czy działu IT. Następnie oceń każde narzędzie pod kątem bezpieczeństwa: czy dane są szyfrowane, gdzie są przetwarzane, jakie są warunki licencyjne i zasady przetwarzania danych przez dostawcę. Na tej podstawie podejmij decyzję – które narzędzia dopuścić (ewentualnie po zakupie wersji enterprise), a które zablokować.
Czy przy wdrożeniu AI trzeba zmienić umowy z pracownikami i współpracownikami B2B? Tak – każda umowa powinna zawierać zapis zobowiązujący do stosowania wewnętrznej polityki korzystania z AI, zakaz korzystania z niezatwierdzonych narzędzi oraz obowiązek złożenia oświadczenia o zapoznaniu się z zasadami. Dodaj klauzule odpowiedzialności za skutki niewłaściwego użycia AI – w zakresie naruszenia RODO, ujawnienia informacji poufnych i naruszenia praw autorskich. Bez tych zapisów firma ponosi konsekwencje finansowe i reputacyjne bez możliwości regresu wobec osoby, która spowodowała problem.
Jak poinformować klientów, że firma korzysta z AI, żeby nie narazić się na zarzut braku transparentności? Umieść informację o wykorzystywaniu AI w politykach prywatności, umowach, dokumentach ofertowych lub na stronie internetowej – wskaż, w jakich obszarach stosujesz AI i jak chronisz dane osobowe. Jeśli publikujesz treści wygenerowane przez AI (raporty, podsumowania, analizy), oznaczaj je przypiskiem, informacją na końcu dokumentu lub ikoną – takie etykietowanie zwiększa wiarygodność i pozwala klientom ocenić charakter danej informacji.
Kiedy przy wdrożeniu AI warto rozważyć rozwiązanie on-premise zamiast narzędzia SaaS? Rozwiązanie on-premise wdrażaj tam, gdzie firma przetwarza dane wrażliwe, poufne lub strategiczne, a ich ujawnienie mogłoby spowodować poważne konsekwencje prawne lub finansowe. Narzędzia SaaS opierają się na chmurze, w której dane mogą być replikowane poza UE lub wykorzystywane do trenowania modeli – przy danych poufnych to ryzyko nie do zaakceptowania. Rozdziel środowiska: marketing i analiza trendów mogą działać na SaaS (w wersjach płatnych, po audycie), ale dane poufne powinny być przetwarzane wyłącznie lokalnie lub na kontrolowanych serwerach.


