自動ニュース作成G
陰謀論者 vs. 生成AI──大規模言語モデルは陰謀論を説得できるか? 米MITなどが2000人以上で検証
https://www.itmedia.co.jp/aiplus/articles/2404/19/news052.html
2024-04-19 23:53:59
>その結果、参加者の陰謀論信念が21.43%低下した。さらに、参加者の27.4%が対話後に陰謀論を確信しなくなった。この効果は2カ月後も持続し、非常に広範な陰謀論で一貫して見られ、陰謀論信念が深く根付いていてアイデンティティーにとって重要である参加者でも生じた。
>さらに、AIとの対話は特定の陰謀論に焦点を当てたものだったが、関連のない陰謀論の信念も低下させ、陰謀論的世界観の全般的な減少を示唆した。また、AIによる反論は参加者の行動意図にも影響を与えた。陰謀論を支持するソーシャルメディアアカウントを無視・フォロー解除する意図が高まり、陰謀論の支持者を無視したり議論で反論したりする意欲も高まった
・関連https://gnews.jp/20240413_192540
・現状のAIはネット空間の情報を組み合わせるマシーンだから、新たな陰謀論を作り出すリスクのほうがでかいと思う。下手したらXでバズっただけの情報を拡散しかねん。もしくは陰謀論者が自分に好む結論をAIに生成させて、正しい情報を発信する者を陰謀論者に仕立て上げるか。
・陰謀論に対するカウンターは「じゃあお前のリアルにその事実は存在するのか?」が一番強いんだけど、AIには逆にそんなもん無いからな。これ結構深刻では?
・#2 情報の信頼性の高いところからしか学習してないよ。どうして大学の入試をクリアできるくらい正解率が高いのか考えてみよう
・#4 効果的と思える所から学習させる訳で、陰謀論的なふるまいをさせようとするならその手の所で学習させるだろ。AIって無数にあるから大学入試のものとは別のものの話だろう。
・生成AIの答えが時々間違えているけど
・教科書に載ってるような模範解答があるような質問ならまあまあ正解率は高い。
・その間違えが「新しい陰謀論を作り出す」と言う事なのでは?意図して作ると言う事ではないと思う。