Mecenas postanowił wykorzystać możliwości Chatu GPT w trakcie rozprawy przeciwko kolumbijskim liniom lotniczym Avianca. Pasażer, którego reprezentował, ucierpiał w trakcie podawania potraw. Stewardessa miała uderzyć go wózkiem. Sprawa wyglądała na dość błahą i prawdopodobnie zakończyłaby się oddaleniem przez sędziego. Wiedział o tym doskonale Schwartz, który postanowił udowodnić, według prawa precedensowego, że wyroki w podobnych przypadkach zapadały. Prawnik zapytał Chatu GPT o listę podobnych spraw. Dokument z konkretnymi nazwiskami i datami przedstawił w sądzie. Niestety, jak się później okazało, były to dane kompletnie zmyślone. Poważne konsekwencje Błąd sztucznej inteligencji będzie wiązał się z poważnymi kłopotami Stevena Schwartza. Przedstawił bowiem przed sądem fałszywe dane, które miały na celu doprowadzić do zwycięstwa w rozprawie. To oczywiście grozi konsekwencjami. Trudno też będzie uratować reputację w środowisku prawniczym. Pójście na łatwiznę i przegranie prostej sprawy zapewne nie przysporzy rzeszy nowych klientów. Błędy Chatu GPT Jak podkreślają eksperci, chatboty sztucznej inteligencji są stworzone jako modele językowe i wyszkolone do wykonywania instrukcji oraz udzielania użytkownikowi odpowiedzi na pytania. Oznacza to, że jeśli dany użytkownik poprosi o informacje, to zostaną one przedstawione, niezależnie od tego czy są zgodne z faktami.