Prawo AI w 2024 roku: Przegląd i podsumowanie kluczowych zmian

Jan Czarnocki LL.M., M.A.
09.12.2024

W 2024 roku nastąpiły istotne zmiany w regulacjach dotyczących sztucznej inteligencji (AI), które stopniowo zmieniają krajobraz operacyjny dla firm opartych na tej technologii. Zrozumienie tych zmian jest kluczowe dla zapewnienia zgodności i strategicznego planowania. Oto przegląd najważniejszych nowych regulacji w 2024 roku oraz ich implikacji.

1. Akt o Sztucznej Inteligencji Unii Europejskiej (EU AI Act)

Akt o Sztucznej Inteligencji (AI Act) Unii Europejskiej, który wszedł w życie 1 sierpnia 2024 roku, ustanawia kompleksowe ramy regulacyjne, klasyfikujące systemy AI według poziomu ryzyka: niedopuszczalne, wysokie, ograniczone i minimalne. Systemy o wysokim ryzyku podlegają rygorystycznym wymaganiom, w tym ocenie zgodności i obowiązkom w zakresie przejrzystości. Regulacja obejmuje również systemy AI ogólnego przeznaczenia. Zakazy dotyczące systemów AI o „niedopuszczalnym ryzyku” zaczną obowiązywać w lutym 2025 roku.

Kluczowe wnioski dla firm:
  • Ocena ryzyka: Zidentyfikuj i sklasyfikuj swoje systemy AI zgodnie z kategoriami ryzyka, aby określić, czy AI Act dotyczy Twojej działalności i jakie wymogi należy spełnić.
  • Środki zgodności: Wdrożenie odpowiednich procedur oceny i dokumentacji jest niezbędne dla aplikacji AI o wysokim ryzyku.
  • Dostosowanie operacyjne: Przygotuj się na nadchodzące zakazy, oceniając i modyfikując systemy AI, które mogą zostać uznane za „niedopuszczalne”.

Kary za brak zgodności: Nieprzestrzeganie przepisów może skutkować znacznymi grzywnami, co podkreśla konieczność przestrzegania regulacji.

2. Stany Zjednoczone – nowe Rozporządzenie wykonawcze o bezpiecznej i godnej zaufania sztucznej inteligencji Prezydenta Bidena (Executive Order 14110)

Rozporządzenie Prezydenta Bidena kładzie nacisk na bezpieczeństwo, przejrzystość i niezawodność systemów AI, szczególnie w sektorze publicznym. Wzywa agencje federalne do opracowania wytycznych minimalizujących ryzyko, wspierających równość oraz eliminujących stronniczość.

Kluczowe wnioski dla firm:

3. Wielka Brytania – proinnowacyjne podejście do regulacji AI

W marcu 2024 roku rząd Wielkiej Brytanii opublikował Białą Księgę regulacji AI, kładąc nacisk na „proinnowacyjne” podejście. Strategia ta minimalizuje nadmierne regulacje, jednocześnie zapewniając bezpieczeństwo i odpowiedzialność technologii AI.

Kluczowe wnioski dla firm:
  • Elastyczne ramy zgodności: Firmy działające w Wielkiej Brytanii korzystają z mniej restrykcyjnych, bardziej adaptacyjnych regulacji, sprzyjających innowacjom.
  • Zaangażowanie sektorowe: Firmy powinny monitorować i współpracować z regulatorami branżowymi, aby zrozumieć wymagania specyficzne dla swojego sektora.

4. Dyrektywa Parlamentu Europejskiego i Rady (UE) w sprawie odpowiedzialności za produkty wadliwe 

W listopadzie 2024 roku Unia Europejska uchwaliła Dyrektywę 2024/2853 z dnia 23 października 2024 r., aktualizującą definicję „produktu”, obejmującą oprogramowanie, systemy AI i usługi cyfrowe. Dyrektywa wprowadza odpowiedzialność producentów za wady systemów AI.

Kluczowe wnioski dla firm:
  • Świadomość odpowiedzialności: Systemy AI są teraz jednoznacznie objęte przepisami odpowiedzialności za produkt, co zwiększa potencjalną ekspozycję prawną.
  • Zapewnienie jakości: Konieczne jest ulepszanie procesów testowania i kontroli jakości w celu minimalizacji ryzyka wad.
  • Ubezpieczenia: Firmy powinny przejrzeć i zaktualizować swoje polisy ubezpieczeniowe, aby zapewnić ochronę przed roszczeniami związanymi z AI.

 5. Ramowa Konwencja Rady Europy o Sztucznej Inteligencji

17 maja 2024 roku Rada Europy przyjęła Ramową Konwencję w sprawie sztucznej Inteligencji, praw człowieka, demokracji i praworządności – pierwsze wiążące międzynarodowe porozumienie dotyczące regulacji AI. Dokument podkreśla wymogi etyczne, takie jak bezpieczeństwo, przejrzystość i odpowiedzialność.

Kluczowe wnioski dla firm:
  • Zgodność z prawami człowieka: Firmy powinny upewnić się, że ich systemy AI przestrzegają zasad prywatności, równości i wartości demokratycznych.
  • Przejrzystość: Utrzymywanie szczegółowej dokumentacji systemów AI i zapewnienie ich dostępności dla osób, których dotyczą.
  • Odpowiedzialność: Wdrożenie mechanizmów nadzoru pozwalających monitorować i minimalizować potencjalne szkody.

Podsumowanie

Rok 2024 był przełomowy dla regulacji dot. sztucznej inteligencji, wyznaczając nowe standardy odpowiedzialności, przejrzystości i bezpieczeństwa w wykorzystaniu technologii AI. Dynamiczny rozwój prawa w tej dziedzinie odzwierciedla rosnącą potrzebę dostosowania ram prawnych do tempa innowacji, zapewniając jednocześnie ochronę praw człowieka i równość wobec technologii. Zmiany te zmuszają przedsiębiorstwa i regulatorów do redefiniowania podejścia do zarządzania ryzykiem oraz etyki w projektowaniu systemów AI. W tej złożonej rzeczywistości prawnej kluczowe staje się nie tylko zrozumienie nowych regulacji, ale także ich praktyczne wdrożenie w sposób wspierający rozwój biznesu i budowanie zaufania społecznego.

W Kancelarii Jabłoński Koźmiński i Wspólnicy doskonale rozumiemy wyzwania, jakie niesie za sobą wdrażanie nowych regulacji AI. Dzięki praktyce AI Advisory – Doradztwo Regulacyjne i Zgodność, zapewniamy naszym klientom kompleksowe wsparcie, pomagając im nie tylko w zgodności z przepisami, ale także w pełnym wykorzystaniu potencjału sztucznej inteligencji w zgodzie z najwyższymi standardami prawnymi i etycznymi.

Autor

Jan Czarnocki LL.M., M.A.
SENIOR ADVISOR+48 22 416 60 04jan.czarnocki@jklaw.pl

Zobacz inne wpisy