自動ニュース作成G
Perplexity、天安門事件も解答するDeepSeekベースの事後トレーニング済みAI「R1 1776」をオープンソースで発表
https://ascii.jp/elem/000/004/252/4252353/
2025-02-20 20:02:57
>米国のAI企業Perplexityは2月18日(現地時間)、最新の大規模言語モデル「R1 1776」をオープンソースとして公開したと発表した。このモデルは、既存のDeepSeek-R1を基に開発され、偏りなく正確な情報を提供するための後処理トレーニングが施されている。〜Perplexityは、この新しいモデル「R1 1776」をHuggingFaceリポジトリで公開しており、Sonar API経由で利用することも可能だ。同社は、このモデルが研究者や開発者だけでなく、多くのユーザーにとって信頼できる情報源となることを期待している。
推論プログラム内のフィルターじゃなくてプレトレイン時の段階で削ぎ落とされてた?
・関連『中国発の高性能AI「DeepSeek」が示す衝撃 —— 制約が生んだ驚異的な効率性』https://gnews.jp/20250127_145140『DeepSeek-R1がNPU上で動作できるようMicrosoftが移植』https://gnews.jp/20250130_124709『OpenAI o1相当の推論モデル「DeepSeek R1」を中国AI企業が商用利用や改変が可能なMITライセンスでリリース - GIGAZINE』https://gnews.jp/20250121_133030
・gpt-4oは検閲度0%で、claudeは5%になるのか。実際の文章から学習してるなら0にはならない方が自然な気がするので、0になるモデルではそのための対策をしてるんだろうなあ。