AI Act i Trustworthy AI – jak przygotować się na nowe regulacje Komisji Europejskiej?

16 cze 2025
Maciej Woroch

AI Act i Trustworthy AI to najbardziej aktualne tematy w świecie regulacji. Komisja Europejska, w ramach strategii budowy odpowiedzialnego ekosystemu AI, postawiła jasne wymagania dotyczące tego, co musi spełniać rozwiązanie, by uznane było za godne zaufania. Oto fundamenty, na których opiera się koncepcja „Trustworthy AI”.

Trzy filary AI godnej zaufania

Zgodnie z raportem High-Level Expert Group on AI (HLEG), system AI uznany za godny zaufania musi spełniać trzy kluczowe warunki:

  • Zgodność z prawem – przestrzeganie przepisów takich jak RODO, AI Act czy sektorowe regulacje (np. DORA).
  • Zgodność z zasadami etycznymi – respektowanie praw człowieka, prywatności i godności.
  • Solidność techniczna i społeczna – odporność na błędy, wyjaśnialność i niezawodność systemu.

Wymagania dla Trustworthy AI

HLEG wyróżniła 7 wymagań, które powinien spełniać każdy system sztucznej inteligencji wdrażany w UE:

1. Czynnik ludzki i nadzór

Systemy AI nie powinny podejmować decyzji samodzielnie. Konieczna jest możliwość interwencji człowieka (human-in-the-loop) oraz mechanizmy awaryjne (kill switch).

2. Solidność techniczna i bezpieczeństwo

Systemy muszą być odporne na błędy i ataki, m.in. poprzez testy penetracyjne, redundancję i symulacje awarii.

3. Prywatność i zarządzanie danymi

AI musi spełniać wymagania RODO – w tym minimalizację danych, transparentność i kontrolę użytkownika nad danymi.

4. Przejrzystość

Procesy decyzyjne muszą być zrozumiałe i wyjaśnialne. Wymaga się dokumentacji modeli oraz możliwości ich audytu.

5. Różnorodność i niedyskryminacja

Systemy AI powinny być testowane pod kątem biasu i zapewniać równe traktowanie bez względu na cechy demograficzne.

6. Dobrostan społeczny i środowiskowy

Sztuczna inteligencja powinna wspierać zrównoważony rozwój i ograniczać negatywne skutki społeczne.

7. Odpowiedzialność

Niezbędne są mechanizmy przypisania odpowiedzialności – dokumentacja decyzji, audyty, zasady rozliczalności.

Wdrażanie AI godnej zaufania w praktyce

Organizacje wdrażające AI w UE będą zobowiązane do wykazania zgodności z powyższymi zasadami, szczególnie po wejściu w życie AI Act. Oznacza to konieczność:

  • opracowania polityk etycznych,
  • prowadzenia dokumentacji zgodności,
  • przeprowadzania audytów algorytmicznych,
  • oceny ryzyka dla systemów wysokiego ryzyka (scoring, biometria, rekrutacja).

Trustworthy AI w kontekście regulacyjnym – AI Act

AI Act wprowadza klasyfikację systemów AI wg poziomu ryzyka. Systemy wysokiego ryzyka (np. zdrowie, sądownictwo, energetyka) podlegają szczególnym wymaganiom:

  • rejestracja w europejskim rejestrze AI,
  • obowiązkowy audyt przed wdrożeniem,
  • dokumentacja i testy bezpieczeństwa oraz przeciwdziałania biasowi,
  • systemy zgłaszania incydentów i nadzoru po wdrożeniu.

Sztuczna inteligencja musi być nie tylko „inteligentna”, ale też odpowiedzialna, bezpieczna i zgodna z przepisami. AI Act to nie tylko regulacja – to kierunek rozwoju AI w Europie. Warto już teraz przygotować się na nadchodzące zmiany.

Skontaktuj się z nami, jeśli chcesz sprawdzić, czy Twoja organizacja jest gotowa na wymagania AI Act. Pomożemy zaprojektować etyczne, zgodne z prawem i bezpieczne środowisko AI.

#RODO

Zobacz także

19 mar
#Bezpieczeństwo
#OT / IoT / IoMT
#Szpitale
Claroty xDome for Healthcare (dawniej Medigate) – jak chronić urządzenia medyczne w szpitalu 

Cyfryzacja ochrony zdrowia w ostatnich latach przyspieszyła w ogromnym tempie. Szpitale i placówki medyczne korzystają dziś z setek, a często tysięcy urządzeń podłączonych do sieci od aparatów USG i tomografów, przez pompy infuzyjne, aż po systemy HVAC czy inteligentne instalacje budynkowe. Ta rosnąca liczba połączonych systemów tworzy tzw. środowisko IoMT (Internet of Medical Things), które znacząco zwiększa możliwości diagnostyczne i operacyjne placówek medycznych, ale jednocześnie otwiera nowe wektory cyberataków.

Czytaj dalej arrow
30 sty
#Bezpieczeństwo
Cyberbezpieczny Szpital już trwa

Polskie szpitale coraz częściej stają się celem cyberprzestępców. W ostatnich latach ataki typu ransomware i wycieki danych ujawniły, jak wrażliwe są nasze placówki medyczne. Aby odpowiedzieć na rosnące zagrożenia, ruszył projekt „Cyberbezpieczny Szpital”, który wspiera szpitale w zwiększeniu odporności systemów, ochronie danych pacjentów i zapewnieniu ciągłości działania placówek.

Czytaj dalej arrow
Nie znalazłeś tego, czego szukasz?
Napisz do nas arrow