USA: Prawnik użył Chatu GPT na sali sądowej. Mocno tego pożałował
Sztuczna inteligencja może pomóc, ale także czasem wprowadzić w błąd, czego konsekwencje będą bardzo poważne. Dobitnie przekonał się o tym amerykański prawnik Steven Schwartz z kancelarii Levidow & Oberman.

Mecenas postanowił wykorzystać możliwości Chatu GPT w trakcie rozprawy przeciwko kolumbijskim liniom lotniczym Avianca. Pasażer, którego reprezentował, ucierpiał w trakcie podawania potraw. Stewardessa miała uderzyć go wózkiem.
Sprawa wyglądała na dość błahą i prawdopodobnie zakończyłaby się oddaleniem przez sędziego. Wiedział o tym doskonale Schwartz, który postanowił udowodnić, według prawa precedensowego, że wyroki w podobnych przypadkach zapadały.
Prawnik zapytał Chatu GPT o listę podobnych spraw. Dokument z konkretnymi nazwiskami i datami przedstawił w sądzie. Niestety, jak się później okazało, były to dane kompletnie zmyślone.
Poważne konsekwencje
Błąd sztucznej inteligencji będzie wiązał się z poważnymi kłopotami Stevena Schwartza. Przedstawił bowiem przed sądem fałszywe dane, które miały na celu doprowadzić do zwycięstwa w rozprawie. To oczywiście grozi konsekwencjami.
Trudno też będzie uratować reputację w środowisku prawniczym. Pójście na łatwiznę i przegranie prostej sprawy zapewne nie przysporzy rzeszy nowych klientów.
Błędy Chatu GPT
Jak podkreślają eksperci, chatboty sztucznej inteligencji są stworzone jako modele językowe i wyszkolone do wykonywania instrukcji oraz udzielania użytkownikowi odpowiedzi na pytania. Oznacza to, że jeśli dany użytkownik poprosi o informacje, to zostaną one przedstawione, niezależnie od tego czy są zgodne z faktami.