ai act explainability clear clarity klara

Przejrzystość systemów AI – wymagania prawne i zakres obowiązków

Ustanowienie szczególnych wymogów prawnych i obowiązków ciążących na dostawcach systemów AI, w zakresie przejrzystości, dokumentacji technicznej i rejestrowania zdarzeń, jest jednym z głównych fundamentów AI Act. W zależności od kategorii ryzyka, systemy AI muszą spełniać odpowiednie wymogi, aby wprowadzane do obrotu systemy AI zapewniały korzystanie z nich w sposób świadomy i godny zaufania.

Jak zdefiniować przejrzystość?

Zgodnie z motywem 27 AI Act, nawiązującym do wytycznych w zakresie etyki dotyczących godnej zaufania sztucznej inteligencji z 2019 r.[1], przejrzystość oznacza, że „system AI rozwija się i wykorzystuje w sposób umożliwiający odpowiednią identyfikowalność i wytłumaczalność, jednocześnie informując ludzi o tym, że komunikują się z systemem AI, oraz należycie informując o możliwościach i ograniczeniach systemu”. Obejmuje to również informowanie osób, na które system może wywierać wpływ, o zasadach działania, ale również związanych z tym prawach (zob. także art. 13 ust. 1 AI Act).

Jednym ze sposobów ujęcia przejrzystości systemów AI jest podział na trzy kluczowe aspekty:

  • identyfikowalność danych i procesów przetwarzania, czyli dokumentowanie procesów gromadzenia i etykietowania danych oraz stosowanych algorytmów (art. 10 ust. 2 i 3 AI Act);
  • wytłumaczalność algorytmów, czyli wyjaśnienie technicznych procesów systemu, a także związanych z nimi decyzji człowieka (motyw 27 i art. 14 AI Act);
  • komunikacja, czyli prawo użytkownika do jasnej informacji, że ma do czynienia z systemem AI (por. art. 50 AI Act).

Przejrzystość w systemach AI wysokiego ryzyka

Systemy AI wysokiego ryzyka, przed wprowadzeniem do obrotu lub oddaniem do użytku, muszą zapewniać taki poziom przejrzystości, by podmioty stosujące mogły zrozumieć działanie systemu (art. 13 AI Act). Dzięki temu podejmują one świadome decyzje w oparciu o wyniki AI. Wymagane są m.in.:

  1. jasne przedstawienie wyników działania – użytkownik (podmiot stosujący) powinien rozumieć sposób podejmowania decyzji przez system;
  2. jasne instrukcje obsługi (art. 13 ust. 2–3 AI Act) – dostawca zobowiązany jest dostarczyć szczegółową instrukcję obsługi w języku określonym przez dane państwo członkowskie, z przykładami ograniczeń i wykluczonych zastosowań;
  3. dokumentacja techniczna – zawierająca informacje o procesie trenowania i testowania, a także dane dotyczące systemu zarządzania ryzykiem (art. 11 AI Act); dokumentacja ta musi być dostępna na żądanie właściwych organów.

Ponadto, zgodnie z art. 49 AI Act, dostawcy systemów wysokiego ryzyka rejestrują je w unijnej bazie danych. Dotyczy to również systemów, które początkowo nie były uznane za wysokiego ryzyka, lecz zostały zarejestrowane na zasadzie odstępstwa na podstawie art. 6 ust. 3 AI Act.

Modele AI ogólnego przeznaczenia

W zakresie przejrzystości dostawcy modeli AI ogólnego przeznaczenia (rozdział V) mają obowiązek:

  • udostępniania streszczeń treści wykorzystywanych do trenowania modeli, w tym tekstów i danych chronionych prawem autorskim (art. 53 ust. 1 lit. d AI Act). Publiczne podanie tej informacji ułatwia zrozumienie, na jakich danych model bazuje odpowiedzi;
  • przygotowania dokumentacji technicznej, dostępnej na żądanie właściwych organów (art. 53 ust. 1 lit. a), co umożliwia weryfikację jakości i zgodności z przepisami;
  • dostarczania informacji dostawcom niższego szczebla, którzy zamierzają zintegrować model ogólnego przeznaczenia z własnym systemem AI (art. 53 ust. 1 lit. b).

Jeżeli modele AI ogólnego przeznaczenia są udostępniane na podstawie bezpłatnych licencji otwartego oprogramowania, dostawca ma dodatkowy obowiązek publicznego ujawnienia parametrów (wag), architektury modelu i informacji o jego wykorzystaniu (art. 53 ust. 2). Możliwe jest też zwolnienie z niektórych obowiązków przejrzystości, o ile modele te nie stwarzają ryzyka systemowego (art. 53 ust. 2 w zw. z art. 55 AI Act).

Systemy AI nieuznane za systemy wysokiego ryzyka

Zasada transparentności odnosi się także do systemów o niższym poziomie ryzyka, ale o określonych funkcjonalnościach (art. 51 AI Act).

  • Interakcje z człowiekiem – wszystkie systemy AI komunikujące się bezpośrednio z człowiekiem muszą jasno wskazywać, że rozmówcą jest AI.
  • Generowanie treści – systemy tworzące treści muszą wyraźnie oznaczać je jako sztucznie wygenerowane (art. 50 ust. 2 i 4 AI Act).
  • Dane biometryczne – w przypadku przetwarzania danych biometrycznych należy poinformować osoby, których dane dotyczą, o działaniu systemu, z zachowaniem przepisów o ochronie danych osobowych.

Systemy wykorzystywane w celu ścigania przestępstw, migracji, azylu i kontroli granic

Ze względu na wrażliwy charakter działań organów ścigania czy służb imigracyjnych, AI Act kładzie szczególny nacisk na przejrzystość, wyjaśnialność (explainability) i dokumentowanie (art. 5 oraz art. 26 ust. 8 i art. 27 AI Act). Chodzi o unikanie niepożądanych wpływów, błędnych ocen i dyskryminacji.

Z drugiej strony, systemy AI wykorzystywane legalnie w ściganiu przestępstw czy zapobieganiu im mogą podlegać wyłączeniom od części obowiązków informacyjnych, np. oznaczania deepfake czy konieczności ujawniania interakcji z AI. Wyłączenia te wprowadza się jednak ściśle i z uwzględnieniem praw podstawowych, a AI Act wskazuje szczegółowo wyjątki i zabezpieczenia.

Przejrzystość systemów AI jest kluczowym filarem AI Act, który ma na celu zapewnienie przewidywalnego i godnego zaufania (trustworthy) działania systemów AI. Wprowadzone wymogi, choć konieczne, wiążą się jednak ze znaczącym obciążeniem organizacyjnym i biznesowym dla dostawców i użytkowników systemów AI. Istotne będzie zatem znalezienie równowagi między skutecznością regulacji a jej wykonalnością w praktyce.

[1] Wytyczne etyczne dotyczące godnej zaufania sztucznej inteligencji, Grupa Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji przy Komisji Europejskiej, zobacz więcej: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

Autor: Robert Brodzik, Natalia Bylinka