Dla prawników orzeczenia sądowe stanowią fundament praktyki – dostarczają kluczowych wskazówek, jak prawo jest interpretowane i stosowane. W obliczu nowych wyzwań, takich jak sztuczna inteligencja, pierwsze wyroki zyskują wyjątkowe znaczenie i kształtują przyszłość całej branży prawniczej.
Tymczasem styczność AI z prawem to wciąż niemal nieodkryty obszar. Na świecie wciąż jest niewiele orzeczeń, które bezpośrednio dotyczą sporów wynikających z wykorzystania AI. To szara strefa pełna znaków zapytania. W miarę jak sądy na całym świecie podejmują pierwsze decyzje, każdy prawnik powinien odpowiedzieć sobie na kilka kluczowych pytań.
Zanim wprowadzisz AI do swojej pracy, zastanów się nad tymi zagadnieniami:
• Czy mogę ponosić odpowiedzialność za korzystanie z AI?
• Czy sądy już rozstrzygają sprawy związane z AI?
• Jakie przepisy muszę wziąć pod uwagę, korzystając z AI?
Kluczem do wiarygodnej AI są dane, na których narzędzie pracuje
Nie jest to tylko prosty frazes. Wydaje się, że aktualnie niewiele jest na rynku narzędzi, które są w stanie wskazać zamknięty zbiór treści, na których trenowany był model AI, i które to są podstawą do wygenerowanych odpowiedzi. Nie da się więc jednoznacznie ocenić ich jakości, źródła pochodzenia czy aktualności. W praktyce problem transparentności danych wykorzystywanych do trenowania modeli jest jednym z największych wyzwań.
Wyzwań, które bezpośrednio wpływają na ryzyko halucynacji, jakość odpowiedzi, zgodność z prawem wykorzystywania zarówno treści treningowych, jak i wyników pracy AI czy ogólne bezpieczeństwo korzystania z narzędzi.
Warto jednak wskazać, że na mocy przepisów AI Act (akt ws. sztucznej inteligencji) dostawcy narzędzi AI będą zobowiązani do prowadzenia odpowiedniej dokumentacji, w tym polityk zapewniających zgodność z prawem autorskim. Tym niemniej, do czasu pełnego wdrożenia tych przepisów, pewności co do powyższego nie otrzymamy.
Co więc może być kluczowe w wyborze narzędzie opartego o AI w naszej pracy?
Po pierwsze: źródła.
Narzędzia AI, które transparentnie wskazują, na jakich danych model jest wytrenowany i na jakiej podstawie generowane są odpowiedzi, zawsze powinny zwrócić naszą uwagę. Dzięki temu użytkownik jest w stanie ocenić, czy dane treningowe są odpowiedniej jakości, a to z kolei wpływa na jakość odpowiedzi AI na zapytanie. Dużo bardziej wiarygodne są treści przygotowane na zbiorze wysokiej jakości publikacji, autorstwa cenionych na danym rynku ekspertów, niż takie, które generowane są na podstawie nieskończenie dużej i nieidentyfikowalnej w dużej mierze bazie treści. Treści, które mogą być nieaktualne, lub po prostu nieprawidłowe.
Kluczową rolę odgrywa jakość i ilość danych. Powszechnie uważa się, że im więcej danych, tym lepsze rezultaty można osiągnąć, co jest w dużej mierze prawdą. Jednak równie istotne jest, aby dane były wysokiej jakości. Co to oznacza? Przede wszystkim muszą być aktualne – jeśli sztuczna inteligencja zostanie zasilona przestarzałymi informacjami, rozwiązanie oparte na takich danych nie spełni swojej roli. Podobnie, brak kompletności danych negatywnie wpłynie na efektywność modelu. Zasada „garbage in, garbage out” pozostaje niezmienna – jeśli dane wejściowe są niskiej jakości, nie można oczekiwać imponujących wyników. Dlatego jakość danych powinna być priorytetem.
Dobre praktyki AI
Cyberbezpieczeństwo w korzystaniu z narzędzi AI
Wdrożenie do codziennego użytku w organizacji każdego nowego narzędzia, niezależnie od wykorzystanej w jego tworzeniu technologii, wymaga uważności i zachowania podstawowych zasad bezpieczeństwa. Nie inaczej jest z narzędziami związanymi z AI. Mało tego - narzędzia AI, przy obecnym rozwoju i znajomości tej technologii, wydaje się, że wymagają jeszcze większej uważności i ostrożności. Przede wszystkim, wprowadzenia odpowiednich zabezpieczeń zarówno technologicznych jak i prawnych, szczególnie w sytuacji korzystania z AI w procesach zawodowych, korzystających z danych stanowiących tajemnicę przedsiębiorstwa czy danych osobowych. Te obszary powinny być bezwzględnie chronione i stanowić pierwszy element do zagospodarowania w procesie budowania bądź wdrażania każdego z narzędzi. Dobrem nadrzędnym jest bowiem ochrona tych danych, a nie przetwarzanie ich przez AI za wszelką cenę.
Kto w organizacji powinien wiedzieć o wykorzystaniu narzędzi AI?
Odpowiedź na to pytanie brzmi: tak naprawdę każdy, kto będzie miał dostęp do danego narzędzia. To każdy, w zetknięciu się z technologią AI, jest zobowiązany do ostrożności i ograniczonego zaufania, zarówno do treści, które wprowadzamy do narzędzia, jak i jego odpowiedzi.
Ponadto, kluczowymi osobami w strukturze organizacji, które będą odpowiedzialne za odpowiednie korzystanie z AI są:
- zarządy i kadra menadżerska, którzy podejmują decyzje strategiczne i de facto opowiadają za korzystanie z narzędzi
- działy prawne i compliance, które są odpowiedzialne za zgodność korzystania z prawem
- Działy IT i odpowiedzialne za bezpieczeństwo, które od początku zobowiązane są do technicznej obsługi danego narzędzia.
Etyka a AI
Korzystanie z AI w pracy prawnika to nie tylko umiejętności techniczne czy znajomość zagrożeń. To także zwrócenie uwagi na etykę wykonywania tego zawodu. AI to kolejny przyczynek do tego, aby zastanowić się nad transparentnością pracy i otwartą komunikacją z Klientem.
Eksperci o AI
Odkryj krótkie materiały eksperckie, które pomogą każdemu prawnikowi bezpiecznie poruszać się w świecie AI! Zadbaj o pewność — z nami ryzyka zamieniasz w możliwości.
Czy mogę bezpiecznie korzystać z treści wygenerowanych przez AI?
Czy AI zawsze mówi prawdę? Czy korzystanie z treści wygenerowanych przez AI jest niebezpieczne? O tym, jakie ryzyka możemy napotkać pracując z AI opowiada Damian Flisak
O czym musi pamiętać prawnik korzystając z AI?
Czy AI do tylko kolejne narzędzie w pracy prawnika? Czy jest się czego obawiać? O tym, na co zwrócić uwagę korzystając z AI w kancelarii prawnej w najnowszej publikacji.
Fałszywe obrazy, prawdziwe procesy. O deepfake mówi Patrycja Dolniak
Czy zawsze możemy wierzyć w to, co widzimy? Czy technologia zawsze służy pomocy człowiekowi? O deepfake mówi Patrycja Dolniak.