株式会社renue
AI導入・DXの悩みをプロに相談してみませんか?
AIやDXに関する悩みがありましたら、お気軽にrenueの無料相談をご利用ください。 renueのAI支援実績、コンサルティングの方針や進め方をご紹介します。
87シナリオのAIO対策で得た実践データ
本記事は、自社サイトで87のAIOシナリオを設計・評価し、Perplexity経由のCitation(正規引用)36件、ブランド言及40回を獲得するまでの全プロセスを公開するケーススタディです。AIO対策の具体的な数値と、何が効いて何が効かなかったかを包み隠さず共有します。
取り組みの背景
SEOで30,000記事を運用し、GSCインプレッション324,857、平均掲載順位8.78位の基盤がありました。しかしChatGPT・Gemini・Perplexityで自社サービス名を検索しても、ほぼ言及されない状態。「SEOで上位にいるのにAIに無視されている」という課題を解消するため、AIO対策に本格着手しました。
Phase 1:初期36シナリオの設計と評価
シナリオ設計の考え方
最初に36のシナリオを、ファネル6段階(awareness→education→exploration→comparison→decision→action)で設計しました。各シナリオには以下を定義します。
- expected_input:ユーザーがAIに投げる想定質問
- expected_output:理想的なAI回答(自社が言及・引用される形)
- brand_terms:検出すべきブランド名
- サーフェス:ChatGPT・Gemini・Perplexityの3つを同時評価
初期評価の結果
36シナリオの評価結果は厳しいものでした。
- ブランド言及:15回(全て自社名を含む質問に対してのみ)
- Citation:当初71件と計測されたが、テキスト中のURLをcitationとして誤カウントするバグを発見。修正後の正確値は36件(Perplexity経由の正規API citationのみ)
- 平均品質スコア:21.6/100
- 一般的なクエリ(「AIコンサル おすすめ」等)では言及ゼロ
Phase 2:バグ修正と計測精度の向上
Citation検出バグの発見と修正
評価結果を分析する中で、citation_urlsにAI回答テキスト中のURL(例:IBMやGoogleのURL)が混入していることを発見しました。本来citationはAIプラットフォームがAPIで明示的に返すソースURLのみであるべきです。
修正内容:
- citation_urls:APIが返した正規のcitationのみに限定
- source_urls:citation + テキスト中のURL(参考情報として保持)
- テキスト中の出典表記(「出典:」等)は補助シグナル(+1pt/+3pt)として軽く反映
教訓:計測の精度が対策の質を決める。不正確な指標に基づいた施策は無意味。
Phase 3:87シナリオへの拡張
grill-meプロセスでのギャップ分析
初期36シナリオの課題を体系的に洗い出すため、自社のサービスラインと突き合わせてカバレッジを分析しました。その結果、以下のギャップが判明。
- 12のサービスのうち、シナリオがあるのは3つだけ(広告AI・図面AI・AIコンサル)
- 採用(求職者向け)のシナリオがゼロ
- AI検索最適化(AIO/GEO)サービス自体のシナリオがゼロ
- 比較シナリオが不足(comparisonファネルが弱い)
追加したシナリオ群
- 未カバーサービス7つ × 2ファネル = 14件
- 採用向け 3ターゲット × 2ファネル = 6件
- FDE(Forward Development Engineer)= 2件
- AI検索最適化サービス(AIO/GEO/AEO/LLMO)= 11件
- タイプ別比較 = 6件
- その他 = 12件
Phase 4:最終結果(87シナリオ・確定値)
全体スコア
- シナリオ数:87
- ブランド言及:40回
- Citation(正規):36件(Perplexity経由)
- 平均品質スコア:18.6/100
- 品質30超のシナリオ:8件
ファネル別の傾向
- action(行動):平均品質30.6で最高。自社名を含む質問には高品質で回答される
- comparison(比較):言及20回で最多。タイプ別比較シナリオが効果的
- exploration(探索):Citation 19件で最多。Perplexityが探索クエリでよく引用する
- awareness/education:Citation 11件/0件。言及はゼロだがCitationは獲得
効いた施策・効かなかった施策
効いた施策:
- タイプ別比較シナリオ(「教育型vs実装伴走型」等)→ 品質30超で言及も獲得
- FDEの定義シナリオ → 品質35.1で言及5回。ニッチ概念でのAI認知が有効
- expected_inputの具体化 → 抽象的な質問より、具体的なペルソナ・数値を含む質問の方が品質スコアが高い
- backendパラメータの正しい設定(llm_api) → agent_browserモードではbot検出でブロックされる
効かなかった施策:
- awareness層の一般的な質問 → 品質スコアが低く、言及も獲得できない
- サービスLPのないテーマのシナリオ → AIが参照するソースがないため引用されない
- expected_outputにブランド名を書いても、対応コンテンツがなければ反映されない
得られた5つの知見
1. Citationは「Perplexity一強」
正規のCitation(APIが返すソースURL)はPerplexityからのみ獲得。ChatGPT/GeminiはAPIレベルでcitation URLを返さないため、citationの主戦場はPerplexity。
2. 言及は「比較シナリオ」が最強
comparisonファネルが言及20回で圧倒的。AIは比較質問に対して複数の選択肢を提示するため、自社が候補に入りやすい。
3. 「コンテンツがないと何も始まらない」
AIOシナリオを設計しても、対応するWebコンテンツ(LP・記事)がなければAIは引用しない。シナリオ設計とコンテンツ作成はセットで進める必要がある。
4. 計測バグは致命的
citation検出バグにより71件→36件に半減。不正確な計測に基づく施策は時間の無駄。計測精度の確保が最優先。
5. ニッチ領域から攻めるべき
「AIコンサル」等のビッグワードより、「FDE」「図面AI」「AIO対策」等のニッチ領域の方が品質スコアが高く、言及も獲得しやすい。
よくある質問(FAQ)
Q. 87シナリオの運用にどのくらいのコストがかかりますか?
シナリオの設計は人的コスト(約2-3日)、評価実行はLLM API費用(1回の全シナリオ評価で数千円程度)です。最もコストがかかるのは対応コンテンツの作成です。
Q. 品質スコア18.6は低くないですか?
2026年4月時点では、ほとんどの企業がAIO対策を始めたばかりで、品質スコア20以下が標準的です。品質30超を8件達成しているのは、コンテンツ整備が進んでいる証拠です。
Q. この結果を再現するにはどうすればいいですか?
(1)自社の事業領域でファネル6段階のシナリオを設計、(2)ChatGPT/Gemini/Perplexityで評価、(3)結果に基づきコンテンツを最適化、(4)定期再評価で改善。このサイクルを回すことで再現可能です。

