Sztuczna inteligencja wyda wyrok. Rewolucja czy judykatura wątpliwej jakości? 

dr Łukasz Wydra
01.08.2025

Jesteśmy świadkami dynamicznego postępu technologicznego mającego również – w założeniu – usprawnić funkcjonowanie wymiaru sprawiedliwości. Nietrudno dostrzec trend cyfryzacji sądownictwa (m.in. portal informacyjny sądów powszechnych, rozprawy zdalne, upowszechnione zwłaszcza w okresie pandemii COVID-19).  

Na tym tle zainteresowanie wzbudza Ultima Ratio – internetowa platforma arbitrażowa, specjalizująca się w rozstrzyganiu sporów gospodarczych pomiędzy przedsiębiorcami. Formalnie jednak, sądem polubownym jest Centrum Arbitrażu i Mediacji przy Stowarzyszeniu Notariuszy Rzeczypospolitej Polskiej w Warszawie. Platforma działa od ok. 5 lat. Rozpoznała ponad tysiąc spraw. Postępowanie odbywa się w pełni cyfrowo. Prawnik inicjujący postępowanie wnosi pozew za pośrednictwem platformy, załączając dowody (głównie dokumentację). 

Instytucja ta, prawdopodobnie jako pionierska w Polsce szerzej bazuje na systemie wykorzystującym sztuczną inteligencję (AI) do generowania projektów uzasadnień wyroków arbitrażowych. Choć rozwiązanie to jest przedstawiane przez notariuszy jako przejaw innowacyjności i postępu technologicznego, to jednak rodzi na obecnym etapie może rodzić określone wątpliwości natury prawnej, etycznej oraz systemowej. 

 Automatyzacja uzasadnień a zasada niezawisłości i bezstronności arbitra 

Zgodnie z informacjami dostępnymi w materiałach prasowych opublikowanych przez Ultima Ratio oraz w relacjach medialnych, system on-line opiera się na analizie stanu faktycznego sprawy. Porównuje go z orzecznictwem (zarówno arbitrażowym, jak i sądów powszechnych), a następnie przygotowuje projekt uzasadnienia wyroku. W konsekwencji, automatyczne wygenerowanie projektu uzasadnienia wyroku następuje w ciągu zaledwie kilkunastu (!) sekund. Chociaż arbiter ma formalną możliwość edycji treści wygenerowanej przez system, to jednak – jak wynika z medialnych przekazów – w praktyce zmiany te bywają minimalne. Powstaje w związku z tym pytanie, czy w takich warunkach dochodzi do realnego wykonania funkcji jurysdykcyjnej przez arbitra, czy raczej do zatwierdzania treści przygotowanej w sposób zautomatyzowany? 

Należy przypomnieć, że istotą arbitrażu jest rozstrzygnięcie sporu bez udziału sądu powszechnego. Kompetencje sędziowskie w sprawie powierza się wybranemu przez strony arbitrowi, który jest bezstronnym specjalistą z dziedziny, która swoimi ramami obejmuje sporną kwestię. Zastąpienie istotnej części procesu decyzyjnego przez algorytm prowadzić może do przełamania tej zasady i w efekcie podważać zaufanie stron, zwłaszcza, gdy nie jest możliwe pełne zweryfikowanie sposobu działania systemu AI ani mechanizmów jego „procesu decyzyjnego”. 

Ryzyko utrwalania systemowych uprzedzeń i standaryzacja sprawiedliwości 

Systemy sztucznej inteligencji uczą się obecnie na podstawie istniejących danych – w tym przypadku: głównie orzecznictwa sądowego. Choć może się to wydawać zaletą, stanowi również źródło ryzyka. Orzeczenia sądów nie są bowiem wolne od błędów, niekonsekwencji czy uprzedzeń systemowych. Sztuczna inteligencja, bazując na takich danych, może powielać te same wzorce, nie posiadając jednocześnie zdolności do ich krytycznej analizy lub rewizji. Oczywiście, ostateczna decyzja wciąż należy do człowieka – to arbiter formalnie zatwierdza treść orzeczenia. Jednak powstaje pytanie, na ile ta kontrola ma realne znaczenie: czy na ten moment sztuczna inteligencja osiągnęła już taki poziom zaawansowania, że faktyczna analiza i decyzja arbitra stają się jedynie formalnością? W efekcie może dojść do sytuacji, w której arbitraż staje się wyłącznie technokratyczną procedurą stosowania uśrednionych rozwiązań, zamiast indywidualnego rozstrzygania konkretnych, często złożonych i niekonwencjonalnych sporów. W odróżnieniu od prawnika-człowieka, AI potrafi wymyśleć nieistniejące przepisy bądź orzeczenia sądowe oraz nie rozumie kontekstu prawnego.  

Wątpliwa legitymizacja wyroku i kwestia odpowiedzialności za wydane orzeczenie 

Wyrok arbitrażowy to końcowy „produkt” arbitrażu, rezultat działania sędziów polubownych, którym strony zaufały. Można jednak postawić kontrowersyjną tezę (np. na użytek zaskarżania orzeczenia arbitrów): gdy wyrok w istotnym stopniu opiera się o algorytm, jaka jest możliwość zakwestionowania takiego orzeczenia? W szczególności, dotyczy to sytuacji, w której uzasadnienie zawiera błędy. Komu można je przypisać? Kto jest za to odpowiedzialny (w kontekście zobowiązań wynikających z receptum arbitrii)? 

Arbitrzy ponoszą przecież odpowiedzialność za wydany wyrok. Co w sytuacji, gdy arbiter ogranicza się do zatwierdzenia treści przygotowanej przez AI? Czy rzeczywiście ponosi on odpowiedzialność za takie rozstrzygnięcie? Czy odpowiedzialność tę można przenieść na twórców algorytmu? Kwestia ta musi wywoływać refleksję. 

Ochrona danych osobowych oraz tajemnicy adwokackiej 

Nie sposób wreszcie pominąć tak ważnej kwestii jak ochrona danych osobowych, praw autorskich oraz tajemnicy adwokackiej. Warto pamiętać o tym, że AI może wygenerować treści z naruszeniem praw autorskich. Ponadto, nie jest dozwolone przekazywanie sztucznej inteligencji danych osobowych ani kwestii objętych tajemnicą adwokacką. Korzystając z takich narzędzi, trzeba każdorazowo stosować „zasadę ograniczonego zaufania” i weryfikować wygenerowane materiały z zachowaniem należytej ostrożności wymaganej w zawodzie prawniczym. 

Co więcej, jeśli sztuczna inteligencja przetwarza dane wrażliwe lub osobowe, może dojść do naruszenia przepisów o ochronie danych osobowych (głównie tzw. ”RODO”). Dlatego tak ważne jest świadome i odpowiedzialne korzystanie z tych technologii, zgodnie z obowiązującym prawem i zasadami etyki zawodowej. 

Podsumowanie 

Wykorzystanie sztucznej inteligencji w arbitrażu stanowi milowy krok w jego rozwoju. Deklarowane cele takiego modus operandi: zwiększenie efektywności, skrócenie czasu postępowania, obniżenie kosztów – są niewątpliwie doniosłe. Nie należy jednak tracić z pola widzenia pryncypiów sporów cywilnych, m.in. rzetelności postępowania. Brak transparentności, marginalizacja roli arbitra, ryzyko błędów systemowych oraz problem odpowiedzialności za treść orzeczeń – to wszystko sprawia, że stosowanie AI w tym zakresie powinno być nacechowane dużym krytycyzmem. 

Arbitraż, choć charakteryzujący się elastycznością, nie może rezygnować z fundamentów praworządności. Sztuczna inteligencja może wspierać arbitrów, ale nie zastępować ich w funkcji orzekającej. Każdorazowo, przekształcenia arbitrażu w instytucję pozbawioną indywidualnej oceny i autonomicznego rozstrzygania, zagraża zaufaniu społecznemu do sądownictwa polubownego jako części systemu rozstrzygania spraw cywilnych. 

Autorzy

dr Łukasz Wydra
ADWOKAT, PARTNER+48 22 416 60 04lukasz.wydra@jklaw.pl
Anna Chmielewska
Paralegal+48 22 416 60 04anna.chmielewska@jklaw.pl