2

【2026年4月】Mastra完全ガイド|TypeScript AIエージェント

【2026年4月】Mastra完全ガイド|TypeScript AIエージェント

この記事の結論

Mastra(v1.0 2026/1)はTypeScript製AIエージェントFW。GitHubスター22k超、LongMemEval 94.87%。Replit/WorkOS採用、Observational Memoryを解説。

結論: MastraはTypeScript製のAIエージェントフレームワークで、2024年10月リリース、2026年1月のv1.0で本格化。15か月でGitHubスター22,000超、週間npmダウンロード30万超。Replit・WorkOSなど本番採用が進む2026年注目のFW。LongMemEvalベンチで94.87%、P95レイテンシ1,240ms(LangGraphの約半分)が強み。

この記事の要点:

  • 要点1: TypeScript型安全性 + Vercel/Cloudflare/AWS Lambda統合 + Node.jsエコシステム親和性
  • 要点2: Observational Memory(2026年2月導入)でコンテキスト圧縮を自動化
  • 要点3: 3,300+モデル・94プロバイダ対応、VS CodeでIntelliSense型補完

対象読者: TypeScript/Node.js環境でAIエージェントを開発したい開発者、本番運用品質を求めるPM

読了後にできること: Mastraを自社環境にセットアップし、最初のエージェントを実装できる

Mastra基本情報

項目 内容
開発元 Mastra AI(Gatsbyチーム)
初期リリース 2024年10月
v1.0 2026年1月
GitHub Stars 22,000+(15か月で達成)
週間DL 300,000+(npm)
対応モデル 3,300+モデル / 94プロバイダ
本番採用 Replit、WorkOS他
ライセンス オープンソース

2026年4月時点の主要機能

1. Observational Memory(観察的メモリ)

2026年2月導入のMastra最大の技術的特徴。2つのバックグラウンドエージェント(ObserverとReflector)が古い会話メッセージを高密度な構造化観察に圧縮。

  • 会話が長くなっても、生メッセージ履歴は圧縮された観察に置き換わる
  • コンテキストウィンドウが安定、重要情報は保持
  • 長時間運用エージェントでもコンテキスト崩壊を防げる

2. Model Router(モデルルーター)

2026年3月時点で3,300+モデル・94プロバイダに対応。VS CodeなどのTypeScript対応エディタで完全な型補完(IntelliSense)が動く。

import { createAgent } from "@mastra/core";

const agent = createAgent({
  model: "anthropic/claude-opus-4-7",  // ← IntelliSenseで候補表示
  tools: [...],
  memory: { type: "observational" },
});

3. ワークフロー管理

複数ステップのワークフローを宣言的に記述。各ステップは独立した型定義を持ち、入出力が型安全。

import { Workflow } from "@mastra/core";

const workflow = new Workflow({
  name: "content-pipeline",
  steps: [
    { id: "research", agent: researcher, output: ResearchSchema },
    { id: "draft", agent: writer, input: ResearchSchema, output: DraftSchema },
    { id: "review", agent: reviewer, input: DraftSchema, output: FinalSchema },
  ],
});

4. RAGパイプライン統合

ベクトルストア(Pinecone・Qdrant・Weaviate等)とエージェントを統合。RAGアプリの実装が標準化。

5. Built-in Evals & Observability

本番運用に必須の評価・観測機能を標準装備。エージェントの応答品質を自動計測、改善サイクルを回せる。

性能ベンチマーク(2026年4月時点)

  • LongMemEval: 94.87%(State-of-the-Art)
  • P95レイテンシ: 1,240ms(LangGraph 2,450msの約半分)
  • 長期記憶が必要なエージェントタスクで他FWを大きくリード

Mastra Cloud — マネージドホスティング

2026年からMastra公式がクラウド型ホスティングを提供:

  • Cloud Studio: ブラウザ上でエージェント開発・デバッグ
  • GitHub連携デプロイ: pushでオートスケール、即時ロールバック
  • 集中型観測: 構造化ログ・AIアウェアトレーシング・評価ダッシュボード
  • Enterprise tier: オンプレミス展開・カスタムSLA・専用Slackサポート

セットアップ手順(5分で動く)

# 1. プロジェクト作成
npm create mastra@latest my-agent
cd my-agent

# 2. 依存関係インストール
npm install

# 3. APIキー設定
echo "ANTHROPIC_API_KEY=sk-ant-xxx" >> .env

# 4. エージェント定義(src/agents/index.ts)
import { createAgent } from "@mastra/core";

export const researcher = createAgent({
  model: "anthropic/claude-opus-4-7",
  instructions: "リサーチエージェントです。Web情報を要約します。",
});

# 5. 起動
npm run dev

LangGraph・CrewAIとの使い分け

場面 推奨FW
フロントエンド一体型SaaS Mastra(TS統一)
複雑な条件分岐+ヒト承認 LangGraph
プロトタイプ素早く CrewAI
長時間運用エージェント Mastra(Observational Memory)
Microsoft環境 MS Agent Framework

採用事例(公開済み)

  • Replit: AIコーディング環境のエージェント基盤として本番運用
  • WorkOS: B2B SaaS認証プラットフォームでAIエージェント機能を実装
  • その他多数のスタートアップが「TypeScript統一」「型安全」「Cloud統合」を理由に採用

失敗パターン3つ

  • ❌ Pythonエコシステムの豊富なライブラリを期待 → MastraはTSなので、Pythonの一部ライブラリは別途呼ぶ必要
  • ❌ 巨大プロジェクトをいきなりMastraで → 小規模で型設計を確立してからスケール
  • ❌ Observational Memoryに頼りすぎ → 重要な事実は明示的にtools/memoryに保存

まとめ:TypeScript環境では2026年の本命

Replit・WorkOS等の本番採用、22k starの勢い、94.87% LongMemEvalの実力——TypeScript/Node.js環境でAIエージェントを構築するなら2026年の第一候補です。

この記事を読んでMastra導入を本格化したい方へ

UravationではAIエージェント設計・本番運用のコンサル・研修を実施。Mastra実装支援もご相談ください。

出典

関連記事:

aigentlab.tech 関連記事:

Need help moving from reading to rollout?

この記事を読んで導入イメージが固まってきた方へ

Uravationでは、AIエージェントの要件整理、PoC設計、社内導入、研修まで一気通貫で支援しています。

この記事をシェア

X Facebook LINE

※ 本記事の情報は2026年4月時点のものです。サービスの料金・仕様は変更される可能性があります。最新情報は各サービスの公式サイトをご確認ください。

関連記事