結論: MastraはTypeScript製のAIエージェントフレームワークで、2024年10月リリース、2026年1月のv1.0で本格化。15か月でGitHubスター22,000超、週間npmダウンロード30万超。Replit・WorkOSなど本番採用が進む2026年注目のFW。LongMemEvalベンチで94.87%、P95レイテンシ1,240ms(LangGraphの約半分)が強み。
この記事の要点:
- 要点1: TypeScript型安全性 + Vercel/Cloudflare/AWS Lambda統合 + Node.jsエコシステム親和性
- 要点2: Observational Memory(2026年2月導入)でコンテキスト圧縮を自動化
- 要点3: 3,300+モデル・94プロバイダ対応、VS CodeでIntelliSense型補完
対象読者: TypeScript/Node.js環境でAIエージェントを開発したい開発者、本番運用品質を求めるPM
読了後にできること: Mastraを自社環境にセットアップし、最初のエージェントを実装できる
Mastra基本情報
| 項目 | 内容 |
|---|---|
| 開発元 | Mastra AI(Gatsbyチーム) |
| 初期リリース | 2024年10月 |
| v1.0 | 2026年1月 |
| GitHub Stars | 22,000+(15か月で達成) |
| 週間DL | 300,000+(npm) |
| 対応モデル | 3,300+モデル / 94プロバイダ |
| 本番採用 | Replit、WorkOS他 |
| ライセンス | オープンソース |
2026年4月時点の主要機能
1. Observational Memory(観察的メモリ)
2026年2月導入のMastra最大の技術的特徴。2つのバックグラウンドエージェント(ObserverとReflector)が古い会話メッセージを高密度な構造化観察に圧縮。
- 会話が長くなっても、生メッセージ履歴は圧縮された観察に置き換わる
- コンテキストウィンドウが安定、重要情報は保持
- 長時間運用エージェントでもコンテキスト崩壊を防げる
2. Model Router(モデルルーター)
2026年3月時点で3,300+モデル・94プロバイダに対応。VS CodeなどのTypeScript対応エディタで完全な型補完(IntelliSense)が動く。
import { createAgent } from "@mastra/core";
const agent = createAgent({
model: "anthropic/claude-opus-4-7", // ← IntelliSenseで候補表示
tools: [...],
memory: { type: "observational" },
});
3. ワークフロー管理
複数ステップのワークフローを宣言的に記述。各ステップは独立した型定義を持ち、入出力が型安全。
import { Workflow } from "@mastra/core";
const workflow = new Workflow({
name: "content-pipeline",
steps: [
{ id: "research", agent: researcher, output: ResearchSchema },
{ id: "draft", agent: writer, input: ResearchSchema, output: DraftSchema },
{ id: "review", agent: reviewer, input: DraftSchema, output: FinalSchema },
],
});
4. RAGパイプライン統合
ベクトルストア(Pinecone・Qdrant・Weaviate等)とエージェントを統合。RAGアプリの実装が標準化。
5. Built-in Evals & Observability
本番運用に必須の評価・観測機能を標準装備。エージェントの応答品質を自動計測、改善サイクルを回せる。
性能ベンチマーク(2026年4月時点)
- LongMemEval: 94.87%(State-of-the-Art)
- P95レイテンシ: 1,240ms(LangGraph 2,450msの約半分)
- 長期記憶が必要なエージェントタスクで他FWを大きくリード
Mastra Cloud — マネージドホスティング
2026年からMastra公式がクラウド型ホスティングを提供:
- Cloud Studio: ブラウザ上でエージェント開発・デバッグ
- GitHub連携デプロイ: pushでオートスケール、即時ロールバック
- 集中型観測: 構造化ログ・AIアウェアトレーシング・評価ダッシュボード
- Enterprise tier: オンプレミス展開・カスタムSLA・専用Slackサポート
セットアップ手順(5分で動く)
# 1. プロジェクト作成
npm create mastra@latest my-agent
cd my-agent
# 2. 依存関係インストール
npm install
# 3. APIキー設定
echo "ANTHROPIC_API_KEY=sk-ant-xxx" >> .env
# 4. エージェント定義(src/agents/index.ts)
import { createAgent } from "@mastra/core";
export const researcher = createAgent({
model: "anthropic/claude-opus-4-7",
instructions: "リサーチエージェントです。Web情報を要約します。",
});
# 5. 起動
npm run dev
LangGraph・CrewAIとの使い分け
| 場面 | 推奨FW |
|---|---|
| フロントエンド一体型SaaS | Mastra(TS統一) |
| 複雑な条件分岐+ヒト承認 | LangGraph |
| プロトタイプ素早く | CrewAI |
| 長時間運用エージェント | Mastra(Observational Memory) |
| Microsoft環境 | MS Agent Framework |
採用事例(公開済み)
- Replit: AIコーディング環境のエージェント基盤として本番運用
- WorkOS: B2B SaaS認証プラットフォームでAIエージェント機能を実装
- その他多数のスタートアップが「TypeScript統一」「型安全」「Cloud統合」を理由に採用
失敗パターン3つ
- ❌ Pythonエコシステムの豊富なライブラリを期待 → MastraはTSなので、Pythonの一部ライブラリは別途呼ぶ必要
- ❌ 巨大プロジェクトをいきなりMastraで → 小規模で型設計を確立してからスケール
- ❌ Observational Memoryに頼りすぎ → 重要な事実は明示的にtools/memoryに保存
まとめ:TypeScript環境では2026年の本命
Replit・WorkOS等の本番採用、22k starの勢い、94.87% LongMemEvalの実力——TypeScript/Node.js環境でAIエージェントを構築するなら2026年の第一候補です。
この記事を読んでMastra導入を本格化したい方へ
UravationではAIエージェント設計・本番運用のコンサル・研修を実施。Mastra実装支援もご相談ください。
出典
- Mastra公式サイト
- Mastra GitHubリポジトリ
- Mastra AI: The Complete Guide to the TypeScript Agent Framework (2026)
- Mastra empowers web devs to build AI agents in TypeScript – The New Stack
関連記事:
aigentlab.tech 関連記事: