AI Act i Trustworthy AI – jak przygotować się na nowe regulacje Komisji Europejskiej?

16 cze 2025
Maciej Woroch

AI Act i Trustworthy AI to najbardziej aktualne tematy w świecie regulacji. Komisja Europejska, w ramach strategii budowy odpowiedzialnego ekosystemu AI, postawiła jasne wymagania dotyczące tego, co musi spełniać rozwiązanie, by uznane było za godne zaufania. Oto fundamenty, na których opiera się koncepcja „Trustworthy AI”.

Trzy filary AI godnej zaufania

Zgodnie z raportem High-Level Expert Group on AI (HLEG), system AI uznany za godny zaufania musi spełniać trzy kluczowe warunki:

  • Zgodność z prawem – przestrzeganie przepisów takich jak RODO, AI Act czy sektorowe regulacje (np. DORA).
  • Zgodność z zasadami etycznymi – respektowanie praw człowieka, prywatności i godności.
  • Solidność techniczna i społeczna – odporność na błędy, wyjaśnialność i niezawodność systemu.

Wymagania dla Trustworthy AI

HLEG wyróżniła 7 wymagań, które powinien spełniać każdy system sztucznej inteligencji wdrażany w UE:

1. Czynnik ludzki i nadzór

Systemy AI nie powinny podejmować decyzji samodzielnie. Konieczna jest możliwość interwencji człowieka (human-in-the-loop) oraz mechanizmy awaryjne (kill switch).

2. Solidność techniczna i bezpieczeństwo

Systemy muszą być odporne na błędy i ataki, m.in. poprzez testy penetracyjne, redundancję i symulacje awarii.

3. Prywatność i zarządzanie danymi

AI musi spełniać wymagania RODO – w tym minimalizację danych, transparentność i kontrolę użytkownika nad danymi.

4. Przejrzystość

Procesy decyzyjne muszą być zrozumiałe i wyjaśnialne. Wymaga się dokumentacji modeli oraz możliwości ich audytu.

5. Różnorodność i niedyskryminacja

Systemy AI powinny być testowane pod kątem biasu i zapewniać równe traktowanie bez względu na cechy demograficzne.

6. Dobrostan społeczny i środowiskowy

Sztuczna inteligencja powinna wspierać zrównoważony rozwój i ograniczać negatywne skutki społeczne.

7. Odpowiedzialność

Niezbędne są mechanizmy przypisania odpowiedzialności – dokumentacja decyzji, audyty, zasady rozliczalności.

Wdrażanie AI godnej zaufania w praktyce

Organizacje wdrażające AI w UE będą zobowiązane do wykazania zgodności z powyższymi zasadami, szczególnie po wejściu w życie AI Act. Oznacza to konieczność:

  • opracowania polityk etycznych,
  • prowadzenia dokumentacji zgodności,
  • przeprowadzania audytów algorytmicznych,
  • oceny ryzyka dla systemów wysokiego ryzyka (scoring, biometria, rekrutacja).

Trustworthy AI w kontekście regulacyjnym – AI Act

AI Act wprowadza klasyfikację systemów AI wg poziomu ryzyka. Systemy wysokiego ryzyka (np. zdrowie, sądownictwo, energetyka) podlegają szczególnym wymaganiom:

  • rejestracja w europejskim rejestrze AI,
  • obowiązkowy audyt przed wdrożeniem,
  • dokumentacja i testy bezpieczeństwa oraz przeciwdziałania biasowi,
  • systemy zgłaszania incydentów i nadzoru po wdrożeniu.

Sztuczna inteligencja musi być nie tylko „inteligentna”, ale też odpowiedzialna, bezpieczna i zgodna z przepisami. AI Act to nie tylko regulacja – to kierunek rozwoju AI w Europie. Warto już teraz przygotować się na nadchodzące zmiany.

Skontaktuj się z nami, jeśli chcesz sprawdzić, czy Twoja organizacja jest gotowa na wymagania AI Act. Pomożemy zaprojektować etyczne, zgodne z prawem i bezpieczne środowisko AI.

#RODO

Zobacz także

30 sty
#Bezpieczeństwo
Cyberbezpieczny Szpital już trwa

Polskie szpitale coraz częściej stają się celem cyberprzestępców. W ostatnich latach ataki typu ransomware i wycieki danych ujawniły, jak wrażliwe są nasze placówki medyczne. Aby odpowiedzieć na rosnące zagrożenia, ruszył projekt „Cyberbezpieczny Szpital”, który wspiera szpitale w zwiększeniu odporności systemów, ochronie danych pacjentów i zapewnieniu ciągłości działania placówek.

Czytaj dalej arrow
26 sty
#IOD
#RODO
Dyrektywa omnibus – zmiany w 2026 roku 

Dyrektywa Omnibus oraz najważniejsze zmiany planowane na 2026 rok. Dyrektywa to kompleksowy pakiet regulacji Komisji Europejskiej. Celem jest uproszczenie i uporządkowanie unijnego prawa cyfrowego, m.in. w obszarach ochrony danych, cyberbezpieczeństwa, chmur obliczeniowych, cookies i sztucznej inteligencji. W odpowiedzi na szybki rozwój technologii dyrektywa ma ograniczyć obciążenia regulacyjne dla firm i administracji. Pozwoli to zachować wysokie standardy ochrony danych i prywatności.

Czytaj dalej arrow
Nie znalazłeś tego, czego szukasz?
Napisz do nas arrow