自律型SEOエージェントとは、ゴールを指定するだけでデータ収集・分析・施策実行・レポートまでを自動的に実行するAIエージェントである。2026年現在、SEOエージェント「daydream」がシリーズAで約23億円を調達するなど、「SEOの観測」から「SEOの自動実行」への転換が加速している。本記事では、自律型SEOエージェントを本番品質で実装するための設計パターンを、renueが自社運用している「Akasaka SEO Agent」の実装知見をもとに解説する。
自律型SEOエージェントの3つの作業パターン
SEO業務は多岐にわたるが、本番品質のエージェントでは以下の3つの排反なテーマに整理するのが効果的である。テーマをまたいだ作業は複雑性を招くため、1テーマ1エージェント実行が推奨される。
| パターン | ゴール | 主要ステップ |
|---|---|---|
| 1. 記事リライト | パフォーマンス低下ページの改善 | GSC分析 → HTML分析 → リライト → ファクトチェック → DB保存 |
| 2. 構造化マークアップ | JSON-LD構造化データの追加 | ベンチマーク取得 → スキーマ比較 → 生成 → バリデーション → 保存 |
| 3. 新規記事作成 | 新規SEO記事の作成 | キーワードリサーチ → SERP分析 → アウトライン → 本文生成 → ファクトチェック |
本番品質SEOエージェントに必要な7レイヤー
レイヤー1: データ収集ツール群
SEOエージェントには以下のデータソースへのアクセスが必要である。renueの実装では各ツールをLLMから呼び出し可能な形で定義している。
外部サイト取得
- fetch_page: URLからHTMLを取得
- fetch_multiple_pages: 複数URLを並列取得
- analyze_html_content: HTMLの構造とSEOシグナルを分析(URLを渡せば自動取得)
構造化データ解析
- parse_schema_org: HTMLからSchema.org構造化データを抽出
- compare_schemas: 複数サイトのスキーマを比較分析
検索・競合調査
- analyze_serp: キーワードのSERP(検索結果)を分析
- research_keywords: キーワードリサーチ(Google Suggest等)
BigQuery連携(GSC/GA4)
- get_gsc_comparison: GSCデータの期間比較を取得
- get_declining_pages: 順位低下ページを検出
- get_gsc_top_queries: 特定URLのトップクエリを取得
- get_ga_page_metrics: GA4ページメトリクスを取得
- detect_performance_drops: GSC比較データからパフォーマンス低下を検出
GSC/GA4のデータはBigQueryにエクスポートしておくことで、大量ページの分析が高速化できる。SearchConsole APIだけでは取得できない長期データも扱える。
レイヤー2: 実行ツール群
エージェントが実際に「成果物を作る」ツール群。単なる分析ではなく、記事・構造化データを生成する。
- generate_structured_data: JSON-LD構造化データを生成
- validate_structured_data: JSON-LDのバリデーション
- rewrite_article: 記事をSEO改善してリライト
- generate_outline: 新規記事のアウトラインを生成
- write_article: アウトラインから記事本文を生成
- check_facts: 記事内の数値的主張を抽出してファクトチェック
レイヤー3: データベースツール群
エージェントの作業を永続化するツール群。全ての成果物はIssueに紐付けて保存する。
- create_issue: SEO課題(Issue)を作成
- update_issue_status: Issueのステータスを更新
- save_article: 記事をDBに保存
- save_structured_data: 構造化データレコードをDBに保存
- get_reference_sites: ベンチマークサイトを取得
Issue駆動ワークフロー(ステータス遷移)
SEOエージェントの作業を管理可能にするには「Issue駆動」のワークフローが有効である。全ての作業は必ずIssueを作成してから実行し、明確なステータス遷移で管理する。
ステータス遷移
created → research_complete → executing → review_pending → (人間レビュー) → approved/rejected
Issue駆動のメリット
- エージェントの作業が全て可視化される
- 失敗時にどこで止まったか特定しやすい
- 人間レビューを必須にできる(review_pending)
- 統計分析でエージェントの改善点を発見できる
- 複数のエージェントが並行動作しても衝突しない
パターン1: 記事リライトの詳細実装
既存記事のSEO改善パターン。GSCで順位低下したページを自動検出して改善する。
実行フロー
- get_declining_pages: パフォーマンス低下ページを特定(BigQuery)
- analyze_html_content(url=対象URL): コンテンツ構造を分析(URLを渡すと自動でHTMLを取得)
- analyze_serp: 競合を調査(省略可)
- create_issue(theme="rewrite"): Issueを作成
- rewrite_article(url=対象URL): リライト実行
- check_facts: ファクトチェック(引数不要、rewrite結果を自動参照)
- save_article(issue_id): DBに保存
- update_issue_status: ステータスを`review_pending`に更新
重要な設計ポイント
`analyze_html_content`と`rewrite_article`にはHTMLではなく**URLを渡す**。HTMLを直接渡すとLLMのコンテキスト制限で切り詰められ、重要な部分が失われる。ツール内部でURLからHTMLを取得する方が安全である。
パターン2: 構造化マークアップの詳細実装
AI検索時代に最重要となる構造化データ追加のパターン。ベンチマークサイトを分析してから生成する。
実行フロー
- get_reference_sites: ベンチマークサイトを取得
- fetch_multiple_pages: HTMLを並列取得
- parse_schema_org: 各サイトのスキーマを抽出
- compare_schemas: スキーマを比較分析
- create_issue(theme="structured_markup"): Issueを作成
- generate_structured_data: JSON-LDテンプレートを生成
- validate_structured_data: バリデーション
- save_structured_data: DBに保存
- update_issue_status: ステータスを`review_pending`に更新
ベンチマーク駆動のメリット
「このページ種別ではどんなスキーマを使うべきか」はベンチマークサイト(同業他社の上位ページ)を見るのが最速である。複数サイトを`compare_schemas`で比較することで、業界標準のスキーマパターンを自動抽出できる。
パターン3: 新規記事作成の詳細実装
SEOで新規記事を作成するパターン。キーワードリサーチから記事本文生成まで自動化する。
実行フロー
- research_keywords: キーワードリサーチ
- analyze_serp: 競合を調査
- create_issue(theme="new_article"): Issueを作成
- generate_outline: アウトラインを生成
- write_article: 本文を生成
- check_facts: ファクトチェック
- save_article: DBに保存
- update_issue_status: ステータスを`review_pending`に更新
レイヤー4: 自律モードとユーザー指示モード
エージェントは2つのモードで動作する。
自律モード
ゴールが指定されていない場合、指定されたテーマの作業パターンに従い自律的に全工程を進める。1. データ収集 → 2. 分析・優先度決定 → 3. 施策実行 → 4. レポート(実施内容サマリー + 作成Issue一覧 + 次のステップ提案)。
ユーザー指示モード
ユーザーからの指示はゴールの一部として提供される。これらは「ヒント」であり厳密なルールではない。状況に応じて最善の判断をさせる設計にする。厳密すぎるルールはエージェントの柔軟性を奪う。
レイヤー5: ファクトチェックの自動化
AI生成記事の最大の課題は「ハルシネーション(虚偽情報の生成)」である。`check_facts`ツールは記事内の数値的主張を抽出し、外部ソースで検証する。
ファクトチェックの流れ
- 記事から数値的主張を抽出(例: 「市場規模は10億ドル」「CAGR 30%」)
- 各主張について出典確認の必要性を判定
- WebSearchで一次情報源を検索
- 一致しない場合は警告を発し、修正提案を出す
renueの実装では、rewriteやwrite_articleの結果を`check_facts`が自動的に参照するため、エージェントは`check_facts()`を引数なしで呼び出すだけでよい。
レイヤー6: コスト制御とランタイム制御
SEOエージェントは大量のLLM呼び出し・外部API呼び出しを行うため、コストとレート制限の管理が重要である。
renueの実装にあるコスト制御機能
- cost_control.py: LLMトークン使用量の追跡と上限管理
- runtime_control.py: 実行時間・並列数・API呼び出し回数の制御
- rewrite_targeting.py: どのページをリライト対象にするかの優先度判定
- pdca_simulation.py: 施策実行前の効果シミュレーション
レイヤー7: 内部リンク最適化
SEOで見落とされがちだが、内部リンク構造はページ評価に大きく影響する。renueの実装では`internal_link_optimizer.py`で以下を自動化している。
- 関連ページの自動検出
- アンカーテキストの最適化提案
- 孤立ページ(内部リンクがないページ)の検出
- リンクの過剰/不足の分析
renueの実装特徴 — Akasaka SEO Agent
renueは「Self-DX First」の方針のもと、SEOエージェントを自社プロダクトとして開発・運用している。社内12業務を553のAIツールで自動化済み(2026年1月時点)であり、Akasaka SEO Agentもその一部である(全て公開情報)。
公開されている技術スタック
- バックエンド: FastAPI + Python 3.11 + SQLAlchemy + Alembic
- LLMフレームワーク: Google ADK(Agent Development Kit)
- データウェアハウス: BigQuery(GSC/GA4データ取り込み)
- タスク管理: 独自のIssue駆動ワークフロー
- 通知: Slack連携
- 非同期ジョブ: Celeryベース
自律型SEOエージェント導入の5ステップ
- 業務棚卸し: 現在のSEO業務を「リライト/構造化/新規記事」の3パターンに整理
- データ基盤構築: GSC/GA4のBigQueryエクスポート設定
- ツール実装: fetch/analyze/generate/save の各ツールを実装
- Issue駆動ワークフロー: ステータス遷移とレビュー体制
- 自律モード運用開始: ゴール指定なしでの定期実行
導入時のよくある失敗パターン
- 全テーマを1つのエージェントで対応する: 複雑性が爆発して失敗する。1テーマ1エージェント推奨
- Issue駆動を導入しない: エージェントの作業が追跡不可能になる
- 人間レビューを省略する: ハルシネーションが本番サイトに反映される
- HTMLを直接LLMに渡す: コンテキスト制限で重要部分が失われる
- ファクトチェックを省く: 数値が間違ったまま記事が公開される
- コスト制御を実装しない: LLM API利用料が予算超過する
- BigQuery連携を後回しにする: SearchConsole APIの制約で大量分析ができない
世界的なトレンド
2026年4月、SEOエージェント「daydream」がシリーズAで1,500万ドル(約23億円)を調達し、「観測可能性を超えて、実行へ」という方向性を示した。この流れは、SEOが「分析ツール」の時代から「自動実行エージェント」の時代へと移行していることを象徴している。
国内でも、構造化データやFAQ追加、Answer-First構造へのリライトなど、AIが情報を抽出しやすい形式に整える取り組みが広がっており、AIからの引用(AIO対策)がSEOの主要KPIとなりつつある。
よくある質問
AIエージェントに記事を書かせても品質は大丈夫?
Issue駆動ワークフローで必ず人間レビュー(`review_pending`)を挟む設計にする。エージェントが`approved`に直接遷移させる権限は持たない。レビュー工程とファクトチェックがあれば、品質は担保できる。
BigQuery連携は必須?
大量ページのSEO分析には必須。SearchConsole APIには取得制限があり、長期比較やパフォーマンス低下検出には適していない。GSCとGA4をBigQueryにエクスポートしておくと、SQL一発で順位低下ページを検出できる。
どのLLMフレームワークを使うべき?
Google ADK(Agent Development Kit)、OpenAI Agents SDK、LangChain、Claude Agent SDKが主要な選択肢。renueの実装ではGoogle ADKを採用しており、BigQuery連携との親和性が高い。
自律モードは本当に動く?
テーマを1つに絞れば動く。「リライトだけ」「構造化だけ」「新規記事だけ」と指定すれば、エージェントは定義された作業パターンに従って完走できる。複数テーマをまたいだ自律実行は難易度が高く、現時点では推奨しない。
導入後に最も改善するKPIは?
「SEO担当者の作業時間」と「リライト実行件数」が最も顕著に改善する。手動で月10件しかリライトできなかったものが、エージェント導入後は月100件以上になるケースがある。次いで「構造化データカバレッジ」「GSC CTR」が改善する。
