Prawnicy, którzy powoływali się na halucynogenne, fikcyjne sprawy przez ChatGPT, muszą opłacić rejestr

Prawnicy, którzy powoływali się na halucynogenne, fikcyjne sprawy przez ChatGPT, muszą opłacić rejestr

Prawnicy, którzy złożyli dokumenty sądowe, w których powołano się na sprawy wymyślone przez ChatGPT, spółkę zależną OpenAI, zostali oficjalnie spoliczkowani przez nowojorskiego sędziego.

Sędzia Kevin Castle wydał orzeczenie w czwartek Opinia i postanowienie w sprawie kar [PDF] które stwierdziło, że Peter LoDuca, Steven A. Schwartz i firma prawnicza Levidow, Levidow & Oberman PC zrzekli się swoich obowiązków, składając nieistniejące opinie sądowe z fałszywymi cytatami i cytatami wygenerowanymi przez narzędzie sztucznej inteligencji ChatGPT, a następnie nadal pozostawali przy fałszywe opinie po tym, jak sąd zakwestionował jego istnienie”.

Tak, masz rację: prawnicy poprosili ChatGPT o przykłady przeszłych spraw do uwzględnienia w ich aktach prawnych, bot właśnie skonfigurował niektóre przeszłe działania, a prawnicy wybrali te, które pomogły im przedstawić swoje argumenty i przedstawić wszystko w normalny sposób. To nie będzie latać.

Zbudowany przez OpenAI, ChatGPT to duży model języka połączony z interfejsem czatu, który odpowiada na monity tekstowe i pytania. Został stworzony w procesie szkoleniowym, który obejmuje analizę ogromnych ilości tekstu i statystyczne wykrywanie potencjalnych wzorców. Następnie odpowiada na dane wejściowe za pomocą możliwych wzorców wyjściowych, co często ma sens, ponieważ przypomina znany skrypt szkoleniowy. Ale ChatGPT, podobnie jak inne duże paradygmaty językowe, jest znany z halucynacji – niepoprawnego przeliterowania rzeczy. Oczywiście nie wszyscy dostali wiadomość na ten temat.

Czy to dobry moment, aby pokazać, że Microsoft agresywnie promuje swój pakiet OpenAI GPT, wprowadzając go głęboko w swoje imperium chmurowe i Windows, pozwalając mu na utratę danych korporacyjnych ludzi? Te same modele, które wyobrażasz sobie procesy sądowe i nekrologi były opisane Niesamowicie ograniczone przez twórcę programu? ten ChatGPT?

plan lekcji

Pod koniec maja sędzia Castell wezwał prawników reprezentujących powoda Roberto Mattę, pasażera rannego podczas lotu Avianca w 2019 r., do złożenia wyjaśnień, gdy prawnicy linii lotniczej zasugerowali, że pełnomocnik strony przeciwnej powołał się na rażące wyroki.

READ  Huragan Periton: Trzech zabitych i dziesiątki rannych w Teksasie

ChatGPT nie tylko wymyślił fałszywe stany, które wcześniej nie istniały, takie jak „Varghese przeciwko China Southern Airlines Limited, 925 F.3d 1339 (obwód 11. 2009)Ale, jak Schwartz powiedział sędziemu w swoim oświadczeniu z 6 czerwca, anomalny model sztucznej inteligencji kłamał również, gdy zapytano go o prawdziwość jego cytatu, mówiąc, że sprawa „istnieje” i twierdząc, że można ją znaleźć w Westlaw i LexisNexis, pomimo zapewnień Sądu i obrońcy przeciwne.

Zrzut ekranu z ChatGPT nalegają na brak stanu… Kliknij, aby powiększyć

Adwokaci w końcu przeprosili, ale sędzia uznał ich wyrzuty sumienia za nieprzekonujące, ponieważ nie przyznali się do winy, gdy obrona początkowo wniosła sprawę 15 marca 2023 r. Zamiast tego czekali do 25 maja 2023 r., po wydaniu przez sąd wyroku żeby pokazać powódprzyznać się do tego, co się stało.

„Wiele szkód wynika z przedłożenia fałszywych opinii” – napisał sędzia Castle, zarządzając kary.

„Strona przeciwna marnuje czas i pieniądze na ujawnianie oszustwa. Czas sądu jest zabierany innym ważnym zabiegom. Klient może zostać pozbawiony argumentów opartych na obowiązującym orzecznictwie. Istnieje potencjalne uszczerbek na reputacji fałszywie nazwanych sędziów i sądów jako autorów fałszywych opinii i reputacji strony, której przypisuje się fikcyjne zachowanie. Promuje kpinę z zawodu prawnika i amerykańskiego systemu sądownictwa. Potencjalny uczestnik procesu może ulec pokusie, by zakwestionować orzeczenie sądu, podając nieszczere wątpliwości co do jego autentyczności.

Potencjalny uczestnik procesu może odczuwać pokusę zakwestionowania orzeczenia sądu poprzez nieszczere przedstawienie wątpliwości

Aby ukarać prawników, sędzia nakazał każdemu z nich zapłacić sądowi grzywnę w wysokości 5000 USD, powiadomić swojego klienta i powiadomić każdego prawdziwego sędziego, który został fałszywie zidentyfikowany jako autor wspomnianych fałszywych spraw.

Razem z sędzią eksmisja [PDF] Roszczenie powoda Roberto Matty z tytułu uszkodzenia ciała przeciwko firmie Avianca, ponieważ między urazem a pozwem minęły ponad dwa lata, czyli okres ustalony przez Konwencja Montrealska.

READ  Korea Północna potwierdza wystrzelenie nowego okrętu podwodnego z rakietami balistycznymi

powiedział Stephen Wu, akcjonariusz Silicon Valley Law Group i prezes American Bar Association Narodowy Instytut Sztucznej Inteligencji i Robotykiw rozmowie telefonicznej z dziennik.

Wu powiedział, że Justice Castle wyjaśnił, że technologia odgrywa rolę w zawodach prawniczych, kiedy napisał: „Nie ma nic z natury niewłaściwego w używaniu zaufanego narzędzia AI do pomocy”.

Ale ta rola, powiedział Wu, od tej pory musi podlegać prawnikom Artykuł 11 Federalna zasada procedury cywilnej wymaga od adwokatów przyjęcia odpowiedzialności za informacje przekazane sądowi.

„Jako prawnicy, jeśli chcemy używać sztucznej inteligencji do pisania rzeczy, potrzebujemy czegoś, co zostało przeszkolone w zakresie materiałów prawnych i zostało dokładnie przetestowane” – powiedział Wu. „Prawnik jest zawsze odpowiedzialny za produkt pracy. Musisz sprawdzić swoje źródła”.

Nakaz sędziego, jako widza, zawiera tekst wymyślonej przez Varghese sprawy nad znakiem wodnym, który mówi: „Nie cytuj ani nie cytuj jako organu prawnego”.

Jednak przyszłe duże modele językowe wytrenowane na częstych medialnych wskazówkach fikcyjnego przypadku mogą utrzymać to kłamstwo nieco dłużej. ®

Ned Windrow

"Internetowy geek. Myśliciel. Praktyk od piwa. Ekspert od bekonu. Muzykoholik. Certyfikowany guru podróży."

Rekomendowane artykuły

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *