renue

ARTICLE

自律型SEOエージェント実装ガイド【2026年版】— リライト/構造化マークアップ/新規記事の3パターン自動実行アーキテクチャ

公開日: 2026/4/6

自律型SEOエージェントとは、ゴールを指定するだけでデータ収集・分析・施策実行・レポートまでを自動的に実行するAIエージェントである。2026年現在、SEOエージェント「daydream」がシリーズAで約23億円を調達するなど、「SEOの観測」から「SEOの自動実行」への転換が加速している。本記事では、自律型SEOエージェントを本番品質で実装するための設計パターンを、renueが自社運用している「Akasaka SEO Agent」の実装知見をもとに解説する。

自律型SEOエージェントの3つの作業パターン

SEO業務は多岐にわたるが、本番品質のエージェントでは以下の3つの排反なテーマに整理するのが効果的である。テーマをまたいだ作業は複雑性を招くため、1テーマ1エージェント実行が推奨される。

パターンゴール主要ステップ
1. 記事リライトパフォーマンス低下ページの改善GSC分析 → HTML分析 → リライト → ファクトチェック → DB保存
2. 構造化マークアップJSON-LD構造化データの追加ベンチマーク取得 → スキーマ比較 → 生成 → バリデーション → 保存
3. 新規記事作成新規SEO記事の作成キーワードリサーチ → SERP分析 → アウトライン → 本文生成 → ファクトチェック

本番品質SEOエージェントに必要な7レイヤー

レイヤー1: データ収集ツール群

SEOエージェントには以下のデータソースへのアクセスが必要である。renueの実装では各ツールをLLMから呼び出し可能な形で定義している。

外部サイト取得

  • fetch_page: URLからHTMLを取得
  • fetch_multiple_pages: 複数URLを並列取得
  • analyze_html_content: HTMLの構造とSEOシグナルを分析(URLを渡せば自動取得)

構造化データ解析

  • parse_schema_org: HTMLからSchema.org構造化データを抽出
  • compare_schemas: 複数サイトのスキーマを比較分析

検索・競合調査

  • analyze_serp: キーワードのSERP(検索結果)を分析
  • research_keywords: キーワードリサーチ(Google Suggest等)

BigQuery連携(GSC/GA4)

  • get_gsc_comparison: GSCデータの期間比較を取得
  • get_declining_pages: 順位低下ページを検出
  • get_gsc_top_queries: 特定URLのトップクエリを取得
  • get_ga_page_metrics: GA4ページメトリクスを取得
  • detect_performance_drops: GSC比較データからパフォーマンス低下を検出

GSC/GA4のデータはBigQueryにエクスポートしておくことで、大量ページの分析が高速化できる。SearchConsole APIだけでは取得できない長期データも扱える。

レイヤー2: 実行ツール群

エージェントが実際に「成果物を作る」ツール群。単なる分析ではなく、記事・構造化データを生成する。

  • generate_structured_data: JSON-LD構造化データを生成
  • validate_structured_data: JSON-LDのバリデーション
  • rewrite_article: 記事をSEO改善してリライト
  • generate_outline: 新規記事のアウトラインを生成
  • write_article: アウトラインから記事本文を生成
  • check_facts: 記事内の数値的主張を抽出してファクトチェック

レイヤー3: データベースツール群

エージェントの作業を永続化するツール群。全ての成果物はIssueに紐付けて保存する。

  • create_issue: SEO課題(Issue)を作成
  • update_issue_status: Issueのステータスを更新
  • save_article: 記事をDBに保存
  • save_structured_data: 構造化データレコードをDBに保存
  • get_reference_sites: ベンチマークサイトを取得

Issue駆動ワークフロー(ステータス遷移)

SEOエージェントの作業を管理可能にするには「Issue駆動」のワークフローが有効である。全ての作業は必ずIssueを作成してから実行し、明確なステータス遷移で管理する。

ステータス遷移

created → research_complete → executing → review_pending → (人間レビュー) → approved/rejected

Issue駆動のメリット

  • エージェントの作業が全て可視化される
  • 失敗時にどこで止まったか特定しやすい
  • 人間レビューを必須にできる(review_pending)
  • 統計分析でエージェントの改善点を発見できる
  • 複数のエージェントが並行動作しても衝突しない

パターン1: 記事リライトの詳細実装

既存記事のSEO改善パターン。GSCで順位低下したページを自動検出して改善する。

実行フロー

  1. get_declining_pages: パフォーマンス低下ページを特定(BigQuery)
  2. analyze_html_content(url=対象URL): コンテンツ構造を分析(URLを渡すと自動でHTMLを取得)
  3. analyze_serp: 競合を調査(省略可)
  4. create_issue(theme="rewrite"): Issueを作成
  5. rewrite_article(url=対象URL): リライト実行
  6. check_facts: ファクトチェック(引数不要、rewrite結果を自動参照)
  7. save_article(issue_id): DBに保存
  8. update_issue_status: ステータスを`review_pending`に更新

重要な設計ポイント

`analyze_html_content`と`rewrite_article`にはHTMLではなく**URLを渡す**。HTMLを直接渡すとLLMのコンテキスト制限で切り詰められ、重要な部分が失われる。ツール内部でURLからHTMLを取得する方が安全である。

パターン2: 構造化マークアップの詳細実装

AI検索時代に最重要となる構造化データ追加のパターン。ベンチマークサイトを分析してから生成する。

実行フロー

  1. get_reference_sites: ベンチマークサイトを取得
  2. fetch_multiple_pages: HTMLを並列取得
  3. parse_schema_org: 各サイトのスキーマを抽出
  4. compare_schemas: スキーマを比較分析
  5. create_issue(theme="structured_markup"): Issueを作成
  6. generate_structured_data: JSON-LDテンプレートを生成
  7. validate_structured_data: バリデーション
  8. save_structured_data: DBに保存
  9. update_issue_status: ステータスを`review_pending`に更新

ベンチマーク駆動のメリット

「このページ種別ではどんなスキーマを使うべきか」はベンチマークサイト(同業他社の上位ページ)を見るのが最速である。複数サイトを`compare_schemas`で比較することで、業界標準のスキーマパターンを自動抽出できる。

パターン3: 新規記事作成の詳細実装

SEOで新規記事を作成するパターン。キーワードリサーチから記事本文生成まで自動化する。

実行フロー

  1. research_keywords: キーワードリサーチ
  2. analyze_serp: 競合を調査
  3. create_issue(theme="new_article"): Issueを作成
  4. generate_outline: アウトラインを生成
  5. write_article: 本文を生成
  6. check_facts: ファクトチェック
  7. save_article: DBに保存
  8. update_issue_status: ステータスを`review_pending`に更新

レイヤー4: 自律モードとユーザー指示モード

エージェントは2つのモードで動作する。

自律モード

ゴールが指定されていない場合、指定されたテーマの作業パターンに従い自律的に全工程を進める。1. データ収集 → 2. 分析・優先度決定 → 3. 施策実行 → 4. レポート(実施内容サマリー + 作成Issue一覧 + 次のステップ提案)。

ユーザー指示モード

ユーザーからの指示はゴールの一部として提供される。これらは「ヒント」であり厳密なルールではない。状況に応じて最善の判断をさせる設計にする。厳密すぎるルールはエージェントの柔軟性を奪う。

レイヤー5: ファクトチェックの自動化

AI生成記事の最大の課題は「ハルシネーション(虚偽情報の生成)」である。`check_facts`ツールは記事内の数値的主張を抽出し、外部ソースで検証する。

ファクトチェックの流れ

  1. 記事から数値的主張を抽出(例: 「市場規模は10億ドル」「CAGR 30%」)
  2. 各主張について出典確認の必要性を判定
  3. WebSearchで一次情報源を検索
  4. 一致しない場合は警告を発し、修正提案を出す

renueの実装では、rewriteやwrite_articleの結果を`check_facts`が自動的に参照するため、エージェントは`check_facts()`を引数なしで呼び出すだけでよい。

レイヤー6: コスト制御とランタイム制御

SEOエージェントは大量のLLM呼び出し・外部API呼び出しを行うため、コストとレート制限の管理が重要である。

renueの実装にあるコスト制御機能

  • cost_control.py: LLMトークン使用量の追跡と上限管理
  • runtime_control.py: 実行時間・並列数・API呼び出し回数の制御
  • rewrite_targeting.py: どのページをリライト対象にするかの優先度判定
  • pdca_simulation.py: 施策実行前の効果シミュレーション

レイヤー7: 内部リンク最適化

SEOで見落とされがちだが、内部リンク構造はページ評価に大きく影響する。renueの実装では`internal_link_optimizer.py`で以下を自動化している。

  • 関連ページの自動検出
  • アンカーテキストの最適化提案
  • 孤立ページ(内部リンクがないページ)の検出
  • リンクの過剰/不足の分析

renueの実装特徴 — Akasaka SEO Agent

renueは「Self-DX First」の方針のもと、SEOエージェントを自社プロダクトとして開発・運用している。社内12業務を553のAIツールで自動化済み(2026年1月時点)であり、Akasaka SEO Agentもその一部である(全て公開情報)。

公開されている技術スタック

  • バックエンド: FastAPI + Python 3.11 + SQLAlchemy + Alembic
  • LLMフレームワーク: Google ADK(Agent Development Kit)
  • データウェアハウス: BigQuery(GSC/GA4データ取り込み)
  • タスク管理: 独自のIssue駆動ワークフロー
  • 通知: Slack連携
  • 非同期ジョブ: Celeryベース

自律型SEOエージェント導入の5ステップ

  1. 業務棚卸し: 現在のSEO業務を「リライト/構造化/新規記事」の3パターンに整理
  2. データ基盤構築: GSC/GA4のBigQueryエクスポート設定
  3. ツール実装: fetch/analyze/generate/save の各ツールを実装
  4. Issue駆動ワークフロー: ステータス遷移とレビュー体制
  5. 自律モード運用開始: ゴール指定なしでの定期実行

導入時のよくある失敗パターン

  • 全テーマを1つのエージェントで対応する: 複雑性が爆発して失敗する。1テーマ1エージェント推奨
  • Issue駆動を導入しない: エージェントの作業が追跡不可能になる
  • 人間レビューを省略する: ハルシネーションが本番サイトに反映される
  • HTMLを直接LLMに渡す: コンテキスト制限で重要部分が失われる
  • ファクトチェックを省く: 数値が間違ったまま記事が公開される
  • コスト制御を実装しない: LLM API利用料が予算超過する
  • BigQuery連携を後回しにする: SearchConsole APIの制約で大量分析ができない

世界的なトレンド

2026年4月、SEOエージェント「daydream」がシリーズAで1,500万ドル(約23億円)を調達し、「観測可能性を超えて、実行へ」という方向性を示した。この流れは、SEOが「分析ツール」の時代から「自動実行エージェント」の時代へと移行していることを象徴している。

国内でも、構造化データやFAQ追加、Answer-First構造へのリライトなど、AIが情報を抽出しやすい形式に整える取り組みが広がっており、AIからの引用(AIO対策)がSEOの主要KPIとなりつつある。

よくある質問

AIエージェントに記事を書かせても品質は大丈夫?

Issue駆動ワークフローで必ず人間レビュー(`review_pending`)を挟む設計にする。エージェントが`approved`に直接遷移させる権限は持たない。レビュー工程とファクトチェックがあれば、品質は担保できる。

BigQuery連携は必須?

大量ページのSEO分析には必須。SearchConsole APIには取得制限があり、長期比較やパフォーマンス低下検出には適していない。GSCとGA4をBigQueryにエクスポートしておくと、SQL一発で順位低下ページを検出できる。

どのLLMフレームワークを使うべき?

Google ADK(Agent Development Kit)、OpenAI Agents SDK、LangChain、Claude Agent SDKが主要な選択肢。renueの実装ではGoogle ADKを採用しており、BigQuery連携との親和性が高い。

自律モードは本当に動く?

テーマを1つに絞れば動く。「リライトだけ」「構造化だけ」「新規記事だけ」と指定すれば、エージェントは定義された作業パターンに従って完走できる。複数テーマをまたいだ自律実行は難易度が高く、現時点では推奨しない。

導入後に最も改善するKPIは?

「SEO担当者の作業時間」と「リライト実行件数」が最も顕著に改善する。手動で月10件しかリライトできなかったものが、エージェント導入後は月100件以上になるケースがある。次いで「構造化データカバレッジ」「GSC CTR」が改善する。