
Tongyi DeepResearch|アリババが公開したオープンソース研究エージェント
目次
2. 注目される理由と背景
6. ユースケースと今後の展望
1. Tongyi DeepResearchとは何か?

Tongyi DeepResearchは、アリババのTongyi Labが 2025 年 9 月に公開した完全オープンソースのエージェント特化型大規模言語モデルです。
モデル全体は約30.5 億パラメータを備えていますが、推論時に活性化されるのはそのうち3.3 億パラメータだけという Mixture‑of‑Experts 構成が採用されています。
この設計により大規模モデルながら計算効率が高く、長い文脈を扱えるようになっています。主な用途は長期的・深い情報探索に特化しており、従来のチャットボットを超えて研究助手のように複雑な調査や推論を行うことを目指しています。
2. 注目される理由と背景
Tongyi DeepResearch が話題を集める理由は大きく二つあります。
-
完全オープンソースであること
アリババはこのモデルを MIT ライセンスに近い形で公開しており、誰でも自由にダウンロードして試すことができます。
競合する OpenAI の DeepResearch はクローズドソースのため、高性能な研究エージェントを自由に検証・改良できるのは Tongyi DeepResearch だけです。 -
OpenAI の DeepResearch と肩を並べる性能

Tongyi Lab によるブログでは、Tongyi DeepResearch が複数のベンチマークでOpenAI の DeepResearch と同等かそれ以上のスコアを達成したと報告されています。
例えば学術的な推論タスク「Humanity’s Last Exam」ではスコア 32.9、ブラウザ操作が必要な BrowseComp では43.4、中国語版の BrowseComp‑ZH では46.7、ユーザ志向の xbench‑DeepSearch では75 点を記録し、既存の商用モデルやオープンモデルを体系的に上回りました。
これらの成果により、研究コミュニティや企業が高性能な情報探索エージェントを安価に構築できる環境が整ったと評価されています。
3. モデルの特徴とアーキテクチャ
💡 30.5B パラメータの Mixture‑of‑Experts
Tongyi DeepResearch は30.5B パラメータ規模のモデルでありながら、推論時は3.3B のみが活性化される効率的な Mixture‑of‑Experts 構造を採用しています。
そのため、大規模な知識ベースを保持しつつも推論コストを抑えられるため、長い文脈の処理や複雑なタスクに強いのが特徴です。
🛠 主な機能
- 全自動のデータ生成パイプライン:モデル学習には人手を介さない大規模なデータ合成が使われており、エージェントの事前学習・教師あり微調整・強化学習に至るまでを自動化しています。
- 大規模連続事前学習:多様で高品質なエージェント対話データを活用し、モデルの能力を継続的に拡張します。
- エンドツーエンド強化学習:Customized Group Relative Policy Optimization を用いたオンポリシー RL により、安定した学習と推論の柔軟性を両立します。
- 二つの推論モード:厳格に評価するためのReAct モードと、テスト時にモデルの性能上限を引き出すHeavy モードを提供し、用途に応じた推論が可能です。
🔧 関連テクノロジー
Tongyi DeepResearch は、以前のWebAgent プロジェクトを土台にしており、ウェブ検索やツール呼び出しを組み合わせたエージェント制御が可能です。
モデルとツールを統合する仕組みが整っているため、外部 API や検索エンジンを介した複雑な情報収集も自動化できます。
4. 学習データと強化学習の仕組み
モデルの高性能を支えているのが、独自のデータ生成と強化学習の仕組みです。Tongyi Lab の技術ブログによると、開発チームは大規模エージェント訓練のために以下のプロセスを採用しています:
- Agentic Continual Pre-training (CPT):エージェント専用の長期的データを継続的に収集・学習することで、基盤モデルを育てます。さらにAgentFounderと呼ばれるスケーラブルなデータ合成システムを提案し、後続の学習フェーズに必要なデータを自動生成しています。
- データ再構築と質問生成:公開文書や知識グラフ、過去のツール呼び出し履歴など多様な情報源をエンティティごとの知識メモリに再構成し、ランダムにサンプリングしたエンティティから多様な形式の質問と回答を生成します。
- アクションシンセシス:履歴に基づいて一次・高次のアクションシンセシスデータを構築し、オフライン環境で推論行動の探索空間を広げることで、商用 API を追加で呼び出さずに高性能な行動方針を学習させます。
- 完全自動の合成データ:ポストトレーニングでは、人間の手を介さずに高品質な QA データを合成するエンドツーエンドのパイプラインを構築し、長期的な情報探索タスクで必要な難易度や構造を調整しています。
これらのプロセスはすべて強化学習と連携し、カスタムアルゴリズムや自動データキュレーション、ロバストなインフラにより実装されています。
特にReAct モードではプロンプト工夫なしにモデルの基本能力を検証でき、Heavy モードではテスト時のスケーリングにより推論の限界まで性能を引き上げます。
5. 性能ベンチマークと他モデルとの比較
Tongyi DeepResearch は、先述の通りOpenAI DeepResearch に匹敵する性能を達成しています。代表的なベンチマークとスコアは以下の通りです:
ベンチマーク | 説明 | スコア |
---|---|---|
Humanity’s Last Exam (HLE) | 学術的な推論力を測る課題 | 32.9 |
BrowseComp | ブラウザ上で複雑な検索・分析を行う課題 | 43.4 |
BrowseComp‑ZH | 中国語版の BrowseComp | 46.7 |
xbench‑DeepSearch | ユーザ中心の情報探索ベンチマーク | 75 |
これらの数字は、同じタスクで評価された既存の商用モデルやオープンソースモデルを体系的に上回ることを示しています。
さらに GitHub の README によると、Tongyi DeepResearch はWebWalkerQA、xbench‑DeepSearch、FRAMES、SimpleQA など多様なエージェント検索ベンチマークでトップクラスの性能を示しています。
6. ユースケースと今後の展望
Tongyi DeepResearch のユースケースは多岐にわたります。以下はその一例です:
🔍 研究支援・情報探索
長い文書や複数のデータベースを横断しながら、複雑な質問に対する根拠付き回答を生成する能力を活かし、研究者の文献レビューや市場調査をサポートします。モデルは長期的な推論にも強く、問い合わせと調査を繰り返しながら答えを絞り込むタスクに最適です。
🗂 企業ナレッジマネジメント
社内規定や技術ドキュメント、過去の議事録といった散在する情報を結び付け、必要な情報を文脈に沿って提示するエージェントを構築できます。オープンソースなのでカスタマイズが容易で、プライベートデータへの適用も進めやすいです。
🌐 教育・学習支援
学生が調べ物をしたり、レポート作成の際に参考文献を集めたりする際に、対話型の調査パートナーとして利用できます。広範な情報を統合し、理解しやすい形で提示することで、学習効率向上に寄与します。
🔮 今後の展望
Tongyi DeepResearch の開発チームはブログで、継続的なデータ合成と大規模強化学習により、さらに高性能な研究エージェントが実現できると述べています。
今後は商用ツールへの適応や、特定分野に特化したモデルの公開など、オープンソースコミュニティとの協働による発展が期待されます。
また、GitHub では128K トークンの長いコンテキストに対応したモデルバージョンがダウンロード可能であり、大規模な文書や複雑なプロジェクトにも対応できるようになっています。
🔚 まとめ
- Tongyi DeepResearch は30.5B パラメータ中 3.3B だけを活性化する効率的な Mixture‑of‑Experts 構造を採用し、長期的な情報探索に特化したオープンソース LLM です。
- OpenAI DeepResearch と肩を並べる性能を持ち、複数ベンチマークで既存モデルを上回る結果を記録しています。
- 全自動データ生成・エージェント特化の連続事前学習・オンポリシー強化学習など独自の技術により、高品質な研究エージェントを構築できる点が最大の魅力です。
- 企業の情報管理や研究支援、教育分野など幅広いユースケースが想定されており、コミュニティ主導の改善や応用が期待されます。
OpenBridge では、Tongyi DeepResearch を活用した情報探索エージェントの開発や、社内データを用いたカスタマイズ支援も行っています。興味のある方はお気軽にご相談ください。