Wydał wyrok, używając sztucznej inteligencji. "Zadając pytania aplikacji, nie przestajemy być sędziami"

Źródło:
The Guardian
Sztuczna inteligencja stała się teraźniejszością
Sztuczna inteligencja stała się teraźniejszościąTVN24
wideo 2/3
Sztuczna inteligencja stała się teraźniejszościąTVN24

Sędzia w Kolumbii wydał wyrok przy użyciu narzędzia, które - dzięki zastosowaniu sztucznej inteligencji - udziela automatycznych odpowiedzi. Sprawa wzbudziła kontrowersje w kraju. Co więcej, sama aplikacja, zapytana o swoją rolę w wymiarze sprawiedliwości, odpowiada, że sędziowie nie powinni jej używać podczas orzekania.

Juan Manuel Padilla, sędzia z Cartageny na północy Kolumbii, wykorzystał ChatGPT, narzędzie oparte na sztucznej inteligencji, do wydania wyroku. I choć, jak podaje "The Guardian", orzeczenie samo w sobie nie wzbudziło wątpliwości, to zawarcie w dokumentach sądowych rozmowy między sędzią a ChatGPT wywołało wiele kontrowersji.

Wyrok wydany przy pomocy sztucznej inteligencji

Padilla orzekał w sprawie pokrycia kosztów leczenia chłopca z autyzmem. Zdecydował, że koszty te powinny być pokryte w całości z ubezpieczenia, bo rodziców dziecka nie stać na finansowanie terapii. W dokumentach sprawy znalazły się zapytania, jakie sędzia skierował do ChatGPT, które wskazują, że pytał o konkretną sytuację prawną, na przykład "czy autystyczny nieletni jest zwolniony z opłat za swoją terapię?". Odpowiedź brzmiała: "Tak, to prawda. Zgodnie z przepisami obowiązującymi w Kolumbii nieletni zdiagnozowani z autyzmem są zwolnieni z opłat za terapie". Taki też wyrok wydał ostatecznie Padilla. "The Guardian" wskazuje, że metoda wykorzystana do wydania orzeczenia wywołała krytykę wśród innych sędziów i niektórych prawników oraz spór co do stosowania sztucznej inteligencji w kwestiach prawnych.

Padilla twierdzi jednak, że wykorzystanie tej technologii mogłoby usprawnić system sądownictwa w Kolumbii. W rozmowie z Blu Radio we wtorek (31 stycznia) uznał, że ChatGPT może być przydatny do "ułatwiania redagowania tekstów", ale "nie w celu zastąpienia" sędziów. "Zadając pytania aplikacji, nie przestajemy być sędziami, istotami myślącymi" - powiedział, cytowany przez brytyjski dziennik. Dodał, że ChatGPT działa w "zorganizowany, prosty, uporządkowany sposób" i może "poprawić tempo prac" w wymiarze sprawiedliwości.

ZOBACZ TEŻ: Sztuczna inteligencja zdała egzaminy prawnicze i biznesowe na uczelniach. Popełniła też "zaskakujące błędy"

Jak działa ChatGPT?

ChatGPT to narzędzie stworzone przez organizację OpenAI, które umożliwia automatyczne generowanie tekstu na podstawie informacji, których poszukuje w całym internecie. Może odpowiadać na pytania, tworzyć dłuższe wypowiedzi czy tłumaczyć tekst. Wiadomo jednak, że urządzenie czasem się myli i daje różne odpowiedzi na to samo pytanie. W ostatnich tygodniach szczególnie dużo kontrowersji wzbudziły obawy, że może być wykorzystywane m.in. przez uczniów np. do pisania szkolnych wypracowań.

"The Guardian" zapytał ChatGPT o to, jak samo narzędzie postrzega swoją rolę w systemie sprawiedliwości. "Sędziowie nie powinni używać ChatGPT podczas orzekania (...). Nie zastępuje on wiedzy, doświadczenia i osądu ludzkiego" - brzmiała odpowiedź.

Autorka/Autor:pb//am

Źródło: The Guardian

Źródło zdjęcia głównego: Shutterstock