DeepSeekが新型AIモデル「DeepSeek-V3.2」と「DeepSeek-V3.2-Speciale」を発表

杭州のDeepSeekは、複雑な推論能力とツール自動使用機能を組み合わせた新しいAIモデルを発表しました。これらのモデルは、OpenAIやGoogleの最先端システムと直接競合する性能を備えています。
重要性
DeepSeekは、DeepSeek-V3.2が複数の推論テストにおいてGPT-5と同等のパフォーマンスを達成していると主張しています。SpecialeモデルはGemini-3 Proのレベルに到達し、国際数学オリンピックと国際情報オリンピックで金メダルを獲得しました。
背景
DeepSeekは1月に効率性とコストで革新的なモデルで世界を驚かせました。現在、オープンソースシステムでOpenAIとGoogleに推論能力で直接対抗しています。
技術革新
DeepSeek-V3.2は、初めて「思考」をツール使用に直接統合しました。ウェブ検索の実行、計算機の操作、またはコード作成中に内部で推論することができます。
システムは2つのモードで動作します:
- 可視的な推論モード(ChatGPTなどで見られる推論に類似)
- 推論なしモード
思考の連鎖はツール呼び出し間で持続し、ユーザーが新しいメッセージを送信した場合にのみリセットされます。
実現方法
研究者たちは、DeepSeek Sparse Attention(DSA)という、長いコンテキスト処理の計算コストを大幅に削減するアーキテクチャを開発しました。
モデルは6億7,100万個のパラメータを保持していますが、トークンごとにわずか3億7,000万個のパラメータのみを活性化します。
数値で見る成果
DSAは、前の密集型アーキテクチャと比較して、長いコンテキストでの推論コストを約50%削減しています。システムは本番環境で128,000トークンのコンテキストウィンドウを処理します。
強化学習は事前学習計算全体の10%以上を消費しました。チームは1,800以上の合成環境と85,000のタスクを生成し、エージェント機能をトレーニングしました。
成果
DeepSeek-V3.2-Specialeは以下の大会で金メダルを獲得しました:
- 2025年国際数学オリンピック
- 2025年国際情報オリンピック
- 2025年ICPC世界大会決勝
- 2025年中国数学オリンピック
利用可能性
両モデルは既に利用可能です:
- V3.2はアプリケーション、ウェブ、APIで動作します
- V3.2-Specialeは現在のところAPIのみで利用可能です
行間の意味
DeepSeekは完全な重みとトレーニングプロセスの技術レポートを公開しました。この透明性は、大手米国テクノロジー企業が通常行うことと対照的です。Llamaのようなオープンソースモデルを提供する企業でさえ、条件付きです。
中国のスタートアップは、オープンソースシステムが最先端の独自モデルと競合できることを証明したいと考えています。そしてそれはコストを削減し続けながら行われています。
ただし注意点も
公開ベンチマークは必ずしも実世界のタスクでのパフォーマンスを反映していません。GPT-5またはGemini-3 Proとの直接比較は、すべての関連する側面をキャプチャしない可能性がある特定のメトリクスに依存しています。
さらに、推論モードでのツール統合は、複雑な実世界のユースケースでまだテストされる必要があります。コストの削減は、回答の品質が維持されない場合、それほど重要ではありません。





