A A+ A++

Dzisiejsze chatboty nie zawsze udzielają poprawnych odpowiedzi i nie można uznać tego źródła za całkowicie pewne i rzetelne. Wydawać by się mogło, że większość osób zdaje sobie z tego sprawę. Jednak okazuje się, że wcale tak nie jest. Dość głośna staje się właśnie sytuacja, w której to w sądzie użyto wygenerowanych przez chatbota Google Bard spraw sądowych. Kiedy wszystko wyszło na jaw, winny tej sytuacji stwierdził, że nie wiedział, że korzysta z chatbota.

Chatboty pokroju Google Bard, czy też ChatGPT nie dla każdego są w pełni zrozumiałe. Wiele osób uznaje ich odpowiedzi za absolutnie pewne i używa tych narzędzi w codziennym życiu. W pewnej sprawie sądowej posłużono się wynikami wyszukiwania z Google Barda, które były całkowicie zmyślone.

Prawnik powołał się w sądzie na nieistniejące sprawy, które zostały wygenerowane przez... chatbota Google Bard [1]

The New York Times pozywa Microsoft i OpenAI. Powodem jest naruszenie praw autorskich przez ChatGPT i Microsoft Copilot

Cała sytuacja jest spowodowana działaniami byłego prawnika Donalda Trumpa – Michaela Cohena. Swego czasu przyznał się on do wykonywania nielegalnych działań, stracił prawo do wykonywania zawodu i odbył karę więzienia. Teraz trwa proces w jego sprawie, aby wcześniej zakończyć nadzór sądowy. Obecnym prawnikiem Cohena jest David Schwartz. Wniosek sądowy o złagodzenie nadzoru zawierał jednak odwołanie do innych spraw, które po prostu nie istnieją. Okazuje się, że Michael Cohen korzystał z Google Barda, aby dokonać badań w swojej sprawie (dosł. research). Znalazł on wiele nieistniejących spraw, które podał swojemu prawnikowi Schwartzowi. Sędzia Jesse Furman od razu po zapoznaniu się z wnioskiem stwierdził, że cytaty odnoszą się do spraw, które nigdy nie miały miejsca. Padło również pytanie, czy Davidowi pomagał Michael w składaniu tego wniosku.

Prawnik powołał się w sądzie na nieistniejące sprawy, które zostały wygenerowane przez... chatbota Google Bard [2]

Apple nie może już sprzedawać swoich nowych smartwatchy. Wszystko przez kradzież opatentowanej technologii

W rezultacie Cohen przyznał się, że korzystał z Barda, jednak uważał, że ma do czynienia z bardzo zaawansowaną wyszukiwarką, a nie z chatbotem. Wydawało mu się, że wszystkie znalezione sprawy są prawdziwe i nie wiedział, że jego prawnik użyje ich bez żadnego sprawdzenia, czy w ogóle istnieją. Shwartz będzie musiał się teraz mierzyć ze skutkami takich działań, za które grożą mu kary pieniężne. Okazuje się jednak, że obecna sytuacja nie jest niczym nowym. Już wcześniej używano ChatGPT do przedstawiania fałszywych spraw sądowych. Niektórzy prawnicy wykorzystują także chatboty, aby pomagały im generować odpowiedzi z odpowiednimi argumentami, których użyją później w procesie. Całość można uznać za dość kuriozalną. Na dodatek nie powinno mieć to nigdy miejsca, szczególnie w tak ważnych instytucjach, jak sąd. Dość ciekawe jest również to, że sporo osób (nawet pozornie oczytanych) nie zdaje sobie sprawy z tego, jak działają aktualne chatboty i że często generują fałszywe odpowiedzi (halucynacje).

Źródło: The Verge

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułTeologia ciała: 21. Macierzyństwo i ojcostwo jako sens „poznania”
Następny artykułNocna wyprawa po kontuzjowanego taternika