7

AI×暗号資産|Ledger CTOの攻撃コスト警告

AIによる暗号資産サイバー攻撃コストゼロ化の脅威

この記事の結論

AIがサイバー攻撃コストを劇的に下げ暗号資産14億ドル被害を悪化。Ledger CTOの分析。

Ledger CTOが4月5日、AIによる暗号資産攻撃の脅威について警告を発した。「脆弱性を探して悪用するコストは、ほぼゼロに近づいている」。

これは誇張ではない。過去1年間で暗号資産業界が被った損失は14億ドルを超えており、AIが攻撃者側のコスト構造を根本から変えつつある今、その数字はさらに悪化しかねない。

何が起きているのか

Ledger CTOのCharles Guillemetは2026年4月5日、CoinDeskのインタビューで現状をこう表現した。

「Finding vulnerabilities and exploiting them becomes really, really easy. The cost is going down to zero.」

(脆弱性を見つけ、悪用するのは本当に簡単になっている。コストはゼロに近づいている)

— Charles Guillemet、Ledger CTO(CoinDesk、2026年4月5日)

同じ週に、Solanaベースのプロトコル「Drift」が285億円相当の資産を流出させる攻撃を受けた。Resolvプロトコルも25億円の損害を受けた。これらは孤立した事件ではなく、AIが攻撃のエコノミクスを変えた結果として起きている連鎖だ。

AIが変えた攻撃コストの構造

サイバーセキュリティの基本原則は「防御のコストが攻撃のコストを下回るべき」という非対称性だった。Guillemetはこの非対称性がAIによって崩壊しつつあると指摘する。

具体的な攻撃手法として挙げられているのは以下だ:

  • ウォレット種フレーズのスキャン:マルウェアが侵害されたスマートフォンを自動スキャンし、ユーザーが操作しなくても資産を流出させる
  • AIによるエクスプロイトチェーン:従来は高度な専門知識が必要だった脆弱性の連鎖利用を、AIがコード生成を通じて自動化
  • AIフィッシングのスケーラビリティ:個別にカスタマイズされた高品質フィッシングを大量生成。2025年には前年比1400%増のインパクト感染事例が記録されている(Crypto Impact Hub調査)
攻撃タイプ AI登場前 AI登場後
スマートコントラクト脆弱性発見 高度な専門家が数週間 AIがコード解析で大幅に短縮
フィッシングメール作成 人力で数十本/日 AIで数千本/時間、個別カスタマイズ可
マルウェア生成 マルウェア開発スキルが必要 LLMで既存マルウェアの変異体生成が可能
ソーシャルエンジニアリング 言語・文化の壁がフィルター AIが多言語・自然な文体で突破

Ledger CTO発言・各セキュリティレポートをもとに編集部が整理(2026-04-07)

2025年の暗号資産ハック被害は、一部の調査機関で170億ドル超と報告されている(DeepStrike、2025年集計)。これがAIの浸透でさらに加速するというのがGuillemet警告の核心だ。

技術的に見ると — Guillemetが推奨する防御手法

LedgerのCTOが注目しているのは3つの対策だ。

1. Formal Verification(形式検証)

数学的証明によってコードの正しさを検証する手法。AIが大量のコードを生成する時代に、「テストを通過した」だけでは不十分だというのがGuillemet の立場だ。「There is no ‘make it secure’ button. We are going to produce a lot of code that will be insecure by design.(セキュリティを確保するボタンはない。設計上安全でないコードが大量生成される時代になる)」という発言は、AI生成コードへの根本的な懐疑を示している。

2. ハードウェアベースのセキュリティ

秘密鍵をインターネット接続されたシステムから完全に分離する。Ledgerが販売しているハードウェアウォレットの思想でもある。ソフトウェアレイヤーの脆弱性がどれほど巧みに悪用されても、オフラインの秘密鍵には到達できない。

3. コールドストレージと運用セキュリティ

「assume systems can and will fail」——これがGuillemet の根本的なスタンスだ。単一の防御に頼らず、侵害を前提とした多層防御を設計すること。

AIエージェントによるセキュリティ自動化の可能性

攻撃者がAIを使うなら、防御側も同様だ。実際、この文脈で「AIセキュリティエージェント」への関心が高まっている。

GoogleはRSAC 2026でVertex AI Agent Engineをベースにしたセキュリティエージェントを発表。不正アクセスやデータ持ち出しをリアルタイム検知するシステムとして位置づけている。Palo Alto Networksも2026年を「防御者の年」と表現し、AIがレスポンス時間を劇的に短縮することで攻撃者との非対称性を取り戻せると主張する。

ただし正直に言うと、暗号資産セキュリティへのAIエージェント適用は、エンタープライズセキュリティと比べてまだ黎明期にある。スマートコントラクトの静的解析ツール(SlitherやMythX等)のAI強化版は存在するが、「攻撃者のAI」に追いつくスピードが問われる段階だ。

AIエージェントのセキュリティ設計については、Qualys Agent Val解説|AI主導の自律型脆弱性修復エージェントが参考になる。

防御側でAIエージェントを活用する場合、スマートコントラクトの自動解析フローの例を示す。

# 注意: 本番環境で使用する前に、必ずテスト環境で動作確認してください。
# Slitherを使ったスマートコントラクト静的解析の例
# 動作環境: Python 3.10+, slither-analyzer インストール済み
# pip install slither-analyzer

import subprocess
import json

def analyze_contract(contract_path: str) -> dict:
    """
    Slitherでスマートコントラクトを静的解析し、脆弱性リストを返す。
    AIエージェントが新しいコントラクトをデプロイ前に自動チェックする用途を想定。
    """
    result = subprocess.run(
        ["slither", contract_path, "--json", "-"],
        capture_output=True, text=True
    )
    if result.returncode != 0 and not result.stdout:
        return {"error": result.stderr}

    findings = json.loads(result.stdout) if result.stdout else {}
    high_severity = [
        d for d in findings.get("results", {}).get("detectors", [])
        if d.get("impact") == "High"
    ]
    return {
        "total_findings": len(findings.get("results", {}).get("detectors", [])),
        "high_severity": high_severity,
        "safe_to_deploy": len(high_severity) == 0,
    }

# 使用例
# report = analyze_contract("./contracts/MyToken.sol")
# if not report["safe_to_deploy"]:
#     print(f"HIGH severity issues found: {len(report['high_severity'])}")
#     print("Deployment blocked. Review findings before proceeding.")

ポイント:

  • AIエージェントのCI/CDパイプラインに組み込むことで、デプロイ前の自動ゲートとして機能する
  • High severityが1件でもあればデプロイをブロックする設計が最低ライン
  • Slither単体では見つけられない脆弱性もあるため、第三者監査との併用が推奨

開発者・プロジェクトが今週とるべきこと

Guillemetの警告を「遠い話」と受け取るのは危険だ。特にスマートコントラクトやウォレット連携を扱うエンジニアに向けて、今日から始められる対策を整理する。

今日やること:スマートコントラクトのコード審査にAI解析ツールを導入する。MythXやSlitherは無料枠でも動く。AIが生成したコードを使っている場合は、そのまま本番デプロイする前に必ずフォーマル検証または第三者監査を挟む。

今週中:プロジェクトの秘密鍵管理フローを見直す。ホットウォレットに置く必要がある鍵の範囲を最小化し、可能な限りハードウェアセキュリティモジュール(HSM)かコールドストレージへ移行する計画を立てる。

今月中:フィッシング対策のユーザー教育を刷新する。「AIが生成した自然なメールはフィルターをすり抜ける」という前提で、ユーザーに「送信元ドメインだけでなく、要求されているアクションを疑う」習慣をつける。

まとめ

Ledger CTOの発言は、AIが「攻撃者側のアシスタント」として急速に浸透していることの率直な証言だ。脆弱性発見コストのゼロ化、フィッシングのスケールアップ、マルウェアの多様化——これらは別々の現象ではなく、同じ構造的変化の表れだ。

暗号資産のセキュリティ設計は、「攻撃コストが高いうちに守ればよい」という前提を捨て、「攻撃コストがゼロになっても耐えられる設計」に移行する必要がある。Formal Verificationとハードウェア分離は、その方向性として具体的だ。

2026年後半に向けては、防御側のAIエージェント活用がどこまで追いつけるかが注目点になる。少なくとも今は、過信が最大のリスクだ。

参考・出典


あわせて読みたい:


この記事はAIgent Lab編集部がお届けしました。

Need help moving from reading to rollout?

この記事を読んで導入イメージが固まってきた方へ

Uravationでは、AIエージェントの要件整理、PoC設計、社内導入、研修まで一気通貫で支援しています。

この記事をシェア

X Facebook LINE

※ 本記事の情報は2026年4月時点のものです。サービスの料金・仕様は変更される可能性があります。最新情報は各サービスの公式サイトをご確認ください。

関連記事