AI Act i Trustworthy AI – jak przygotować się na nowe regulacje Komisji Europejskiej?

16 cze 2025
Dawid Stefański

AI Act i Trustworthy AI to najbardziej aktualne tematy w świecie regulacji. Komisja Europejska, w ramach strategii budowy odpowiedzialnego ekosystemu AI, postawiła jasne wymagania dotyczące tego, co musi spełniać rozwiązanie, by uznane było za godne zaufania. Oto fundamenty, na których opiera się koncepcja „Trustworthy AI”.

Trzy filary AI godnej zaufania

Zgodnie z raportem High-Level Expert Group on AI (HLEG), system AI uznany za godny zaufania musi spełniać trzy kluczowe warunki:

  • Zgodność z prawem – przestrzeganie przepisów takich jak RODO, AI Act czy sektorowe regulacje (np. DORA).
  • Zgodność z zasadami etycznymi – respektowanie praw człowieka, prywatności i godności.
  • Solidność techniczna i społeczna – odporność na błędy, wyjaśnialność i niezawodność systemu.

Wymagania dla Trustworthy AI

HLEG wyróżniła 7 wymagań, które powinien spełniać każdy system sztucznej inteligencji wdrażany w UE:

1. Czynnik ludzki i nadzór

Systemy AI nie powinny podejmować decyzji samodzielnie. Konieczna jest możliwość interwencji człowieka (human-in-the-loop) oraz mechanizmy awaryjne (kill switch).

2. Solidność techniczna i bezpieczeństwo

Systemy muszą być odporne na błędy i ataki, m.in. poprzez testy penetracyjne, redundancję i symulacje awarii.

3. Prywatność i zarządzanie danymi

AI musi spełniać wymagania RODO – w tym minimalizację danych, transparentność i kontrolę użytkownika nad danymi.

4. Przejrzystość

Procesy decyzyjne muszą być zrozumiałe i wyjaśnialne. Wymaga się dokumentacji modeli oraz możliwości ich audytu.

5. Różnorodność i niedyskryminacja

Systemy AI powinny być testowane pod kątem biasu i zapewniać równe traktowanie bez względu na cechy demograficzne.

6. Dobrostan społeczny i środowiskowy

Sztuczna inteligencja powinna wspierać zrównoważony rozwój i ograniczać negatywne skutki społeczne.

7. Odpowiedzialność

Niezbędne są mechanizmy przypisania odpowiedzialności – dokumentacja decyzji, audyty, zasady rozliczalności.

Wdrażanie AI godnej zaufania w praktyce

Organizacje wdrażające AI w UE będą zobowiązane do wykazania zgodności z powyższymi zasadami, szczególnie po wejściu w życie AI Act. Oznacza to konieczność:

  • opracowania polityk etycznych,
  • prowadzenia dokumentacji zgodności,
  • przeprowadzania audytów algorytmicznych,
  • oceny ryzyka dla systemów wysokiego ryzyka (scoring, biometria, rekrutacja).

Trustworthy AI w kontekście regulacyjnym – AI Act

AI Act wprowadza klasyfikację systemów AI wg poziomu ryzyka. Systemy wysokiego ryzyka (np. zdrowie, sądownictwo, energetyka) podlegają szczególnym wymaganiom:

  • rejestracja w europejskim rejestrze AI,
  • obowiązkowy audyt przed wdrożeniem,
  • dokumentacja i testy bezpieczeństwa oraz przeciwdziałania biasowi,
  • systemy zgłaszania incydentów i nadzoru po wdrożeniu.

Sztuczna inteligencja musi być nie tylko „inteligentna”, ale też odpowiedzialna, bezpieczna i zgodna z przepisami. AI Act to nie tylko regulacja – to kierunek rozwoju AI w Europie. Warto już teraz przygotować się na nadchodzące zmiany.

Skontaktuj się z nami, jeśli chcesz sprawdzić, czy Twoja organizacja jest gotowa na wymagania AI Act. Pomożemy zaprojektować etyczne, zgodne z prawem i bezpieczne środowisko AI.

#RODO

Zobacz także

27 maj
#RODO
Audyt RODO (cena) – Dowiedz się wszystkiego o audycie RODO

Zgodność z Rozporządzeniem o Ochronie Danych Osobowych (RODO) to nie tylko obowiązek, ale również realna wartość biznesowa. Przeprowadzenie audytu RODO pozwala zidentyfikować ryzyka, uporządkować procesy i uniknąć kosztownych sankcji. Dowiedz się, czym jest audyt RODO, jak wygląda proces, jaka jest cena audytu RODO i dlaczego warto zlecić go ekspertom.

Czytaj dalej arrow
19 maj
#Bezpieczeństwo
Dyrektywa NIS2 – Wodociągi: Cyberbezpieczeństwo w branży wodociągowowej i kanalizacyjnej

Bezpieczeństwo systemów IT i OT w sektorze wodociągowo-kanalizacyjnym zyskuje nowe znaczenie w świetle unijnych regulacji, takich jak dyrektywa NIS-2 oraz krajowych inicjatyw jak Cyberbezpieczny Wodociąg. Dzięki środkom z Krajowego Planu Odbudowy (KPO) rusza nowy konkurs grantowy wspierający cyfrowe zabezpieczenia tego krytycznego sektora.

Czytaj dalej arrow
Nie znalazłeś tego, czego szukasz?
Napisz do nas arrow