AI w orzecznictwie: Co się stanie, gdy bezkrytycznie zaufasz AI?
Zanim wprowadzisz AI do swojej pracy, zastanów się nad tymi zagadnieniami:
• Czy mogę ponosić odpowiedzialność za korzystanie z AI?
• Czy sądy już rozstrzygają sprawy związane z AI?
• Jakie przepisy muszę wziąć pod uwagę, korzystając z AI?
-
Czy mogę ponosić odpowiedzialność za błędne użycie AI w pracy prawniczej?Tak, prawnik może ponosić odpowiedzialność procesową, dyscyplinarną oraz wobec klienta za niezweryfikowane użycie AI.
Przejdź do fragmentu w artykule → -
Na czym polegała sprawa Mata vs. Avianca z 2023 roku?Prawnik użył AI do wygenerowania pisma z fikcyjnymi orzeczeniami, co doprowadziło do ukarania kancelarii grzywną.
Przejdź do fragmentu w artykule → -
Czy sądy już rozstrzygają sprawy związane z błędnym użyciem AI?Tak, pojawiły się już pierwsze sprawy, m.in. Mata vs. Avianca w USA oraz przypadek z sądu w Turynie.
Przejdź do fragmentu w artykule → -
Jakie są konsekwencje niewłaściwego użycia AI w dokumentach sądowych?Mogą to być grzywny, zwiększone koszty procesowe, a także odpowiedzialność dyscyplinarna.
Przejdź do fragmentu w artykule → -
Czy sądy w Polsce już stosują art. 126(2) w kontekście AI?Nie ma jeszcze wielu przypadków, ale przepis ten jest adekwatny do takich sytuacji i może być stosowany.
Przejdź do fragmentu w artykule →
Poniższa treść to transkrypcja powyższego materiału wideo.
Odpowiedzialność za błędne użycie AI w pracy prawniczej
Zaczynają się pojawiać pierwsze sprawy dotyczące niefrasobliwego wykorzystania narzędzi sztucznej inteligencji w pracy - czy to pełnomocników: radców prawnych adwokatów, czy to po stronie sędziów, czy też innych zawodów szeroko pojętego wymiaru sprawiedliwości, które również sięgają, bo dlaczego by nie, po właśnie sztuczną inteligencję.
Tych spraw będzie coraz więcej, będą coraz bardziej medialne, aż z czasem, zakładam, że już za chwilę, za parę miesięcy, właściwie przestaniemy niestety je liczyć , ponieważ dojdzie do ich niewątpliwie, znowu powtórzę, spiętrzenia, jeśli chodzi o ilość.
Sprawa Mata vs. Avianca z 2023 roku
Ale gdybym miał wskazać taki podstawowy element, nie wiem czy pierwszy, ale jeden z najgłośniejszych i chyba rzeczywiście jeden z pierwszych przypadków upublicznienia niefrasobliwego korzystania z narzędzi sztucznej inteligencji, to była to sprawa z 2023 roku, sprawa określana jako Mata vs. Avianca. Stan faktycznie był bardzo prosty. Osoba dochodziła odszkodowania od kolumbijskich linii lotniczych za to, że podczas lotu została uderzona w kolano wózeczkiem, którym rozwozi się napoje czy też zbiera śmieci. I w imieniu poszkodowanego, praw dochodziła dostojna amerykańska kancelaria, z siedzibą na Manhattanie i oczywiście konkretny prawnik. Okazało się, że w tej właśnie sprawie, reprezentujący poszkodowanego pełnomocnik posługiwał się, zapewne były to jego pierwsze kroki, narzędziem sztucznej inteligencji, które wygenerowało mu wspaniałe pisma upiększone szeregiem nawiązań do orzeczeń - tyle, że nieistniejących. Kiedy sąd zorientował się, powiadomiony czy też zaalarmowany przez pełnomocnika drugiej strony, poprosił pełnomocnika o przedłożenie właśnie oficjalnych wersji tych orzeczeń. I dowcip polega na tym całej sytuacji, że ten prawnik posługujący się narzędziem przedłożył te wygenerowane, wymyślone orzeczenia, czym już całkowicie rozwścieczył sąd - właśnie tym trwaniem swoim błędnym w przekonaniu o istnieniu tych orzeczeń.
Ostatecznie potwierdzono nieistnienie wskazanych w piśmie judykatów. Na kancelarię reprezentującą poszkodowanego nałożono karę - może nie w jakiejś przesadnej wysokości - 5 tysięcy dolarów, ale właśnie ten kazus, ta osoba i właściwie kancelaria, która reprezentowała osobę poszkodowaną, weszła już chyba na stałe do annałów światowego prawa jako ci, którzy są widocznym przykładem niewłaściwego posługiwania się narzędziami - niewłaściwego, bo niezweryfikowanego. Kancelaria i sam prawnik potem tłumaczyli się, co ciekawe, oświadczeniem kancelarii po przegranej sprawie i wykazanych nieprawidłowościach. W tym oświadczeniu nie znajdziemy przyznania się do winy, a jedynie oświadczenie o działaniu w dobrej wierze i braku wyobrażenia, że narzędzie sztucznej inteligencji może wymyślać tak doskonałe orzeczenia, ba i nawet zamieszczać linki do bardzo renomowanych baz orzeczeń, bo jakby czujność prawnika została uśpiona poprzez to, że te linki czy te hiperlinki rzekomo prowadziły do powszechnie znanych i publicznie stosowanych baz orzeczeń.
Sprawy sądowe związane z błędnym użyciem AI
Natomiast też bardzo ciekawe w tej sprawie i też takie niezwykle mądre, bo pamiętajmy, mówimy o 2023 roku, to wprawdzie nie jest jakoś bardzo dawno temu, czyli porównując z momentem kiedy nagrywamy to wystąpienie dwa lata ledwie wstecz. Sędzia, bardzo doświadczony sędzia, rozstrzygający tę sprawę stwierdził wyraźnie, że nie ma nic immanentnie złego w posługiwaniu się przez prawników z narzędzi sztucznej inteligencji, natomiast pewnym podstawowym warunkiem jest zasada ograniczenia, czy też braku zaufania do prawdziwości generowanego tekstu i absolutny obowiązek weryfikowania tych treści. Ta sprawa, jak powiedziałam, miała wskazać najbardziej znaną, taką sprawę - archetyp wpadki związanej ze stosowaniem przez prawników narzędzia sztucznej inteligencji. To będzie właśnie sprawa z 2023 roku, Mata versus Avianca. Tak jak powiedziałem, tych spraw już będzie, już obecnie jest, pewnie o których nie wiemy, jest wiele, coraz więcej.
Właśnie dokładnie na dniach, czyli jesienią 2025 roku upublicznione zostały kolejne wpadki, czy to sąd włoski w Turynie, w jednej ze spraw, doszedł do wniosku, że niewątpliwie korzystano z narzędzi sztucznej inteligencji przy pisaniu skargi odwołującej się od nałożenia jakichś obowiązków publicznoprawnych, ponieważ ta skarga to była jednym wielkim bełkotem prawniczym. To znaczy, sąd dostrzegł, że zostawiono w tej skardze jakiś szereg orzeczeń i wyimków z literatury prawniczej, które zupełnie ze sobą nie grały i wedle sądu nie było obiektywnej możliwości, żeby człowiek mógł wypuścić coś takiego. W tej sprawie sąd nałożył nawet grzywnę na prawnika, który dostarczył do sądu właśnie taki niezweryfikowany dokument.
Konsekwencje niewłaściwego użycia AI w dokumentach sądowych
Natomiast zadał pytanie, czy tego rodzaju niefrasobliwość, na przykład na płaszczyźnie procesowej, może się skończyć jakoś źle dla prawnika. No to pewnie intuicyjna odpowiedź jest - oczywiście tak, to znaczy odpowiedzialność procesowa to jedno oczywiście, odpowiedzialność na charakterze dyscyplinarnym w ramach korporacji prawniczej to drugie, trzecie to jest odpowiedzialność wobec klienta, który zawierzył prawnikowi, który to zaufanie potem nadużył.
Stosowanie art. 126(2) w kontekście AI i przepisy regulujące nadużycie prawa procesowego w Polsce
Natomiast wracając do tej płaszczyzny prawniczej, w naszej procedurze cywilnej, w Kodeksie postępowania cywilnego od paru lat mamy już taki specjalny przepis dedykowany figurze nadużycia prawa procesowego. To znaczy, jeżeli w toku procesu pełnomocnik zachowuje się nielojalnie, nierzetelnie, w złej wierze, w sposób oczywisty przedłuża w sposób nieuzasadniony rozpoznanie sprawy czy też sprawia, że pełnomocnik drugiej strony przez właśnie jej niefrasobliwe zachowanie ma dużo więcej pracy, roboty, to sąd w wyroku końcowym może dostrzegłszy właśnie to działanie w złej wierze, to nadużywanie uprawnień procesowych, może albo nałożyć zwiększone koszty na stronę, która właśnie w ten sposób się niefrasobliwie zachowuje, albo obciążyć daną osobę wręcz tymi kosztami, niezależnie od wyniku głównej sprawy. Wreszcie może nawet nałożyć grzywnę do wysokości 3000 zł, o tym mówi właśnie artykuł 126 (2), także wydaje mi się, że ten przepis który pewnie był pisany, mówię o tym przepisie 126 (2), który mówi o tym nadużywaniu praw procesowych, zgaduję, że w momencie kiedy przepis wchodził w życie parę lat temu, bezpośrednią przyczyną jego uchwalenia pewnie nie była wizja, czy też nie była chęć zapobieganie tego rodzaju sytuacjom czy rozprawianie się z tego rodzaju sytuacjami niefrasobliwości. Natomiast ten przepis wydaje się absolutnie adekwatny, żeby ujmować w jego ramy właśnie takie przypadki, kiedy ktoś bez weryfikacji, lekkomyślnie, będąc zadowolonym że ma bardzo ładnie gramatycznie napisane pismo dostarcza to pismo do sądu czy też drugiej stronie i tym samym powoduje, czy to u sędziego, czy u panu pełnomocnika drugiej strony jakiś ból głowy i potrzebę weryfikacji, czy rzeczywiście te orzeczenia istnieją czy nie, no bo wiadomo że taka praca poszukiwania orzeczeń wcześniej nieznanych drugiej stronie, a jednocześnie zidentyfikowanych przez stronę która składa pismo, to jest duża trudna praca i olbrzymi wysiłek.
Więc uważam, że ze wszech miar słuszne byłoby korzystanie przez składy orzekające z tego właśnie przepisu i w zależności od okoliczności, od skali przewinienia, od rodzaju przekłamań w piśmie, no sądy niestety ale będą musiały sięgać po tego rodzaju środki dyscyplinujące, żeby utrwalić w prawnikach raz na zawsze absolutny podstawowy rubikon pracy z narzędziami sztucznej inteligencji. A tym rubikonem jest bezwzględny obowiązek weryfikowania dokładnego każdej strony, wszystkiego co zostało wygenerowane przez narzędzie, które nam pomaga, bo rolą narzędzia nie jest zastąpienie prawnika i najprawdopodobniej nigdy nie będzie, a jedynie dostarczenie mu użytecznych narzędzi i pomocy, ale to my jesteśmy tymi, którzy udzielają społeczeństwu, konkretnym klientom pomocy prawnej i niech tak pozostanie.