Prawo06 listopada, 2025

PODCAST #53: Między rozwojem a rozsądkiem, czyli o pułapkach AI mówi Artur Piechocki

YouTube
Spotify
Apple Podcast

W kolejnym odcinku Prawo na oko wraz z Arturem Piechockim przyglądamy się sztucznej inteligencji, która może być zarówno wsparciem, jak i źródłem błędów. Kluczowe są rozsądek, zaufanie i dystans wobec technologii, która imponuje… ale wciąż nie potrafi myśleć za nas.

Sztuczna inteligencja - pomocnik czy rywal?

Już dziś otwarte narzędzia AI potrafią pisać opinie, cytować przepisy, przywoływać orzeczenia… A skoro nowe narzędzia tak skracają czas pracy prawnika, to czy jego wynagrodzenie też powinno ulec „skróceniu”?

Gość odcinka nie ma wątpliwości:

- Czat i podobne systemy są LLM (Large Language Models), czyli są to po prostu modele językowe - to nie jest sztuczna inteligencja, która za nas myśli, tylko bardziej oparcie się na prawdopodobieństwie - prawdopodobieństwie zlepków słów, które stworzą zdania i stworzą sens, którego oczekujemy, sens, który podajemy w prompcie.

Przesadzamy mówiąc, że mamy do czynienia z samomyślącą sztuczną inteligencją. Oczywiście jest to model otwarty i w zależności od tego, jak go wytrenujemy, taki rezultat też otrzymamy, więc jest bardzo elastyczny, ale nie jest to sztuczna inteligencja, która za nas wykona nie wiadomo jakie zadania.

Cyfrowe złudzenia, czyli czym są halucynacje AI?

Jednym z największych zagrożeń związanych z AI są tzw. halucynacje, czyli odpowiedzi, które brzmią bardzo wiarygodnie, ale z rzeczywistością mają niewiele wspólnego.

Ekspert ostrzega:

- Ostatnio poprosiłem AI, aby podał mi treść artykułu 162 kodeksu cywilnego. Odpowiedź oczywiście brzmiała świetnie i prawniczo, ale nie miała nic wspólnego z rzeczywistością. Halucynacje to nie tylko problem techniczny, ale również ryzyko zawodowe. Mniej doświadczeni prawnicy mogą się na to nabrać, a konsekwencje mogą być poważne...

AI w kancelarii – czy to wciąż temat tabu?

Obecnie coraz więcej prawników przyznaje się do korzystania z AI - i to nie tylko do przeformułowania maila, ale nawet do pisania dokumentów od zera.

- To był taki coming out prawniczy - wcześniej wszyscy mówili, że tylko poprawiają teksty, a teraz otwarcie przyznają, że piszą dokumenty prawnicze z pomocą AI - zaznacza rozmówca.

Kto ponosi odpowiedzialność za działania AI: człowiek czy algorytm?

Czy można zrzucić winę na AI, jeśli coś pójdzie nie tak? Artur Piechocki nie pozostawia złudzeń:

- Nie ma takiej możliwości. Odpowiedzialny jest wyłącznie człowiek.

Dlatego w kancelarii naszego gościa obowiązuje zasada tzw. „czworga oczu”, która wymaga, aby każdy dokument był zweryfikowany przez co najmniej dwie osoby. To skuteczny pomysł, który minimalizuje prawdopodobieństwo wystąpienia niechcianych błędów.

Gdy technologia kusi szybkością i efektywnością, warto pamiętać, że to nie algorytmy, lecz ludzie nadają sens decyzjom. AI może być wsparciem, ale to my musimy pozostać przewodnikami, którzy kierują się rozwagą, odpowiedzialnością i świadomością granic, których czasami po prostu nie warto przekraczać.

Aleksandra Kępa
Młodsza Redaktorka

Radca prawny, założyciel kancelarii APLAW

Back To Top