自動ニュース作成G
弁護士がチャットGPTで作成した裁判書類にミス、実在しない判例6件 米ニューヨーク
https://www.sankei.com/article/20230531-SKPDGTD7VNL5HEDRHRCN5PQXHE/
2023-06-01 13:19:02
>米ニューヨークの連邦裁判所で審理中の民事訴訟で、弁護士が対話型人工知能(AI)「チャットGPT」を使って作成した準備書面に、実在しない6件の判例が含まれていた。弁護士は「チャットGPTが虚偽内容を示す可能性に気づいていなかった」とし、「信頼性が完全に検証されるまで二度と頼らない」と述べた。
>弁護士は、裁判所や航空会社を欺く意図はなかったとし、「非常に後悔している」と述べた。裁判所は「前代未聞」と指摘、弁護士の処分の可否などを検討するための審理を6月8日に開く予定。
無い情報はでっち上げてでも回答するなんて、なんて「人間臭い」AIなんだ。
◆
・AIさん「実在しない判例だって?そもそも私は実在しているのかね?」
・ChatGPT使ってる感じ、それっぽい文章をそつなく作ることはできるけど、それっぽく書けてさえいれば文章中の個別の事柄について事実性は問わないって感じなんだよあ。
・生成した文章単体での整合性や表現はともかく、書かれている内容はネットで拾ってきた情報の寄せ集めだからね。文脈を完全に理解できてるわけでも無いから、要所要所で文脈じゃなく単語から回答抽出しちゃったりする
・その文脈でよく出る単語をとりあえず差し込んで座りがいいから正解やろみたいなのやるよな。ペプシの話だからどっかでコカ・コーラの単語を一回置きにいこうみたいな。
・AIはそれっぽいことをするだけで正しいわけじゃないって弁護士レベルでもわからないの?
・ChatGPTさん、何に似てるかと言うと、理解してないことを自信満々に流暢にしゃべる証券会社の営業なんだが、仕事で複数外国人と会食してて所々聞き取れなかったりジョークが理解できなくても、聞き取れた所と雰囲気で前後を類推して、流暢に会話に加わってるふりしてた昔の自分とかも思い出して辛い。
・投稿されてるのは米の例だが、AI全般について実感に近くて得手不得手が分かりやすかった増田 https://anond.hatelabo.jp/20230531144711日本人が生成AIに苦手なことをやらせるのはアトムのせい
・#7 リンク先おもしろかった。海外でもStarWarsのR2D2やC3POあたりのロボットってそれなりに認知されてそうだけど、アトムやドラえもん程には浸透してないのかね。
・#7 面白いね。こんなアホな回答をAIが返してきたよネタは、日本でのAIやロボットに対する暗黙の認知の上に成り立っているのかも。と思った。
・「正しい用途」での使い道がたいていの人にはあんまりないから、面白回答もらえる質問系に偏るだけな気がする
・LLMは「門前の小僧習わぬ経を読む」みたいな状態で、小僧が沢山の書面を参考にして作成した感じだから、細かな(判例は実際の裁判の結果を書かなければならないとの)規則が学べていないのだろう。人間も「ここでこんな判例が必要だ」と考えて作成するはずで「欲しい判例」の状態で作成されたものになる。プロンプトで上制約を課せば嘘書かなくなったりするんじゃね?
・人間が勝手に期待しただけなのに嘘つき呼ばわりで非難されるとか、頑張って作ったChatGPTの中のこびとさん、可哀想。
・つか大女かもしれないじゃないか。
・何ぞ?大女が人に見つからない様に作業するのは難しいだろ。
・#6個人的にはチャットGPTの捏造見てると鳩山の外交ブレーンだった寺島逸郎のサンモニコメント思い出すんだよな。全く知らない事を上から目線で話すという。