プロンプト・RAG・ファインチューニング|LLMアプリ設計の3大選択肢
LLMで業務に特化した出力を得るための主要な手法は、大きく3つに分けられます。プロンプトエンジニアリング(入力の工夫)、RAG(検索拡張生成)、ファインチューニング(モデル再学習)です。これら3つは「どれが優れているか」ではなく「目的・コスト・運用負荷でどう使い分けるか」が本質です。多くのプロジェクトが最初の手法選定で躓き、結果として高コスト・低成果に陥ります。
renueでは広告代理AIエージェント・AI PMOエージェント・Drawing Agentなど複数のAIエージェント事業を本番運用する立場から、「3つを正しく使い分けられるかが事業のスピードとコストを決める」という現実を実体験から把握しています。本記事では3手法の本質的な違い、選び方の決定木、コスト比較、組み合わせパターン、renue独自視点の実務知見を体系的に解説します。
3手法の本質的な違い|「外部知識をどう与えるか」の違い
3つの手法はすべて「LLMに業務知識を反映させる」ための手段ですが、知識の与え方が根本的に違います。
| 手法 | 知識の与え方 | 変更されるもの | 例え |
|---|---|---|---|
| プロンプトエンジニアリング | 入力テキストに直接含める | LLMの「指示」だけ | その都度紙のメモを渡す |
| RAG (検索拡張生成) | 検索した関連文書を入力に動的に追加 | LLMが参照する「外部知識ベース」 | 図書館で本を引いて読みながら答える |
| ファインチューニング | 追加学習でモデル自体を更新 | LLMモデルの「重み」 | 専門書を読み込んで知識を脳に定着 |
この本質的な違いを理解すると、「どんな課題にどの手法が最適か」が自然と決まります。
コスト・学習期間・運用負荷の比較
| 項目 | プロンプト | RAG | ファインチューニング |
|---|---|---|---|
| 初期コスト | 低 (数千円〜) | 中 (数十万〜数百万円) | 高 (数百万〜数千万円) |
| 運用コスト | 低 (LLM API料金のみ) | 中 (ベクトルDB+LLM料金) | 低〜中 (推論料金) |
| 導入期間 | 1日〜1週間 | 1〜4週間 | 1〜3ヶ月 |
| 必要スキル | 低 (誰でも可) | 中 (ベクトルDB知識必要) | 高 (ML専門知識必須) |
| 更新の容易さ | ◎ 即時可能 | ○ 文書追加で対応 | × 再学習が必要 |
| 大量データ対応 | ×(コンテキスト制限) | ◎(数百万文書まで) | ○(学習データに含めれば) |
| 最新情報の取り込み | △ (毎回手動) | ◎ 自動更新 | × 古くなる |
| 応答精度 | ○ プロンプト次第 | ○ 検索精度次第 | ◎ 学習データ次第 |
| 応答スタイル制御 | ○ プロンプト指示 | ○ プロンプト指示 | ◎ 学習で完全制御 |
| 説明可能性 | ○ プロンプトで可視 | ◎ 検索元を引用 | × ブラックボックス |
選び方の決定木|課題から手法を選ぶ
renueが推奨する選定フローは次の通りです。
Step 1: まずプロンプトエンジニアリングで試す
「PoC段階」「業務理解が浅い段階」「新機能の試験」では、まずプロンプトエンジニアリングだけで試します。最速で結果が出て、プロンプトの調整で十分な精度が出るケースは想像以上に多いです。「いきなりRAGやファインチューニング」は遠回りです。
Step 2: 必要な情報が大量・最新性が必須ならRAG
プロンプトに収まらない情報量(社内文書数千〜数百万件、日々更新される情報)が必要ならRAGに進みます。社内ナレッジ検索、カスタマーサポート、コンプライアンスチェックなど「知識参照型タスク」がRAGの主戦場です。
Step 3: 応答スタイル・専門用語・出力形式が独自で固定ならファインチューニング
「自社の決まった出力形式」「業界固有の専門用語の正しい使い方」「特殊な言語処理タスク」など、プロンプト/RAGで吸収しきれない場合のみファインチューニングを検討します。コストと運用負荷が大きいため、最後の選択肢です。
Step 4: 多くは「組み合わせ」が最終解
本番システムでは多くの場合、3手法を組み合わせて使います。「プロンプトで指示」「RAGで知識を取得」「ファインチューニングで応答スタイル統一」というハイブリッドが一般的です。
各手法の典型ユースケース
プロンプトエンジニアリング向き
- 初期PoC・MVP・概念検証
- 少量データ・固定タスク (要約・翻訳・分類)
- クリエイティブな出力 (アイデア生成・記事下書き)
- 柔軟な要件・頻繁な変更
- 限られた予算・短期間で動かしたい
RAG向き
- 社内ナレッジ検索・社内Q&Aボット
- カスタマーサポート (最新の製品情報を反映)
- コンプライアンス・法務文書の参照
- 大量文書から関連情報を抽出する業務
- 「情報の最新性」が必須のシステム
- 引用元を明示する必要があるシステム
ファインチューニング向き
- 応答スタイル・トーンを完全統一したい (ブランドボイス)
- 業界固有の専門用語・略語が大量にある
- 特殊な出力形式 (構造化レポート・特定言語)
- LLMでは理解しにくい独自の業務ロジック
- セキュリティ要件で外部API送信を最小化したい (オンプレ運用)
- 大量の高品質学習データが既に手元にある
renueの視点|3手法を組み合わせる5つの実務パターン
renueでは複数のAIエージェント事業を本番運用する中で、3手法の組み合わせについて次の5つの実務パターンを確立しています。
(1) プロンプト + RAG (最も一般的): 大半の業務エージェントはこの組み合わせ。プロンプトで指示と振る舞いを定義し、RAGで知識を動的取得する。実装難度が低くコスト効率も良いため、まずはこの組み合わせで7割の課題は解決します。
(2) プロンプト + Few-Shot Learning: プロンプトに「正解例」を3〜10件含めることで、ファインチューニングに近い効果を出す手法。学習コストゼロで応答スタイルをある程度制御できる。RAGに進む前にこれで十分なケースが多くあります。
(3) RAG + ファインチューニング: 知識はRAGで動的取得し、応答スタイルだけファインチューニングで統一する。「知識は変わるがスタイルは固定」という業務(法務・医療・金融)に最適です。
(4) ファインチューニング + プロンプト: 軽量LLMをファインチューニングしてオンプレ運用し、プロンプトで指示制御する。機密情報を外部に出せない金融・医療・公共向けの典型構成です。
(5) マルチエージェント × 各手法: 役割別に複数エージェントを構成し、それぞれに最適な手法を選ぶ。知識検索エージェントはRAG中心、対話エージェントはプロンプト中心、分類エージェントはファインチューニング中心、というように。
3手法でよくある失敗パターン
- 失敗1: 最初からファインチューニングに飛びつく — 「カスタマイズするにはファインチューニング」と思い込み、プロンプトとRAGで十分なケースまで重い手法を選ぶ
- 失敗2: RAGの検索精度を軽視 — RAGの応答品質は検索精度で決まる。Embeddingモデル選定・チャンク分割・リランキングを軽視すると、いくらLLMが優秀でも結果は出ない
- 失敗3: ファインチューニングの学習データ不足 — 数十件のデータでファインチューニングしても効果は出ない。最低1,000件、理想は10,000件の高品質データが必要
- 失敗4: プロンプトのバージョン管理欠如 — プロンプトを頻繁に変更するうちに、何が効いたか分からなくなる。バージョン管理と評価データセットが必須
- 失敗5: モデル更新時の手法選定見直しなし — GPT-4世代でファインチューニングが必要だった用途が、GPT-5世代ではプロンプトだけで十分になる。半年に一度は手法選定を見直すべき
- 失敗6: コンテキストウィンドウの過信 — 1Mトークン対応でも、本当に1M入れると精度・コスト・レイテンシが悪化する。適切なチャンク化と検索は依然必要
業種別の推奨組み合わせ
| 業種・用途 | 推奨組み合わせ | 理由 |
|---|---|---|
| カスタマーサポート | プロンプト+RAG | 製品情報の最新性が必須 |
| 社内ナレッジ検索 | プロンプト+RAG | 大量社内文書を扱う |
| 営業AI支援 | プロンプト+RAG+Few-Shot | 事例参照と応答パターン両方 |
| 法務・契約書解析 | プロンプト+RAG+ファインチューニング | 専門用語+知識検索+引用 |
| 医療診断補助 | RAG+ファインチューニング+ガードレール | 専門知識+応答精度+安全性 |
| 金融オペレーション | ファインチューニング+プロンプト(オンプレ) | 機密情報+規制対応 |
| クリエイティブ生成 | プロンプト+Few-Shot | 柔軟性とブランドトーン |
| 業界専門翻訳 | ファインチューニング+用語集RAG | 専門用語の正確な訳出 |
よくある質問(FAQ)
Q1. 3つのうち、どれから始めるべきですか?
必ずプロンプトエンジニアリングから始めてください。最速・最安・最も柔軟です。プロンプトで限界を感じた時に初めてRAG、それでも足りない時にファインチューニングを検討するのが正しい順序です。
Q2. ファインチューニングを使わなくてもいいケースは多いですか?
はい、2026年現在の高性能LLM(GPT-5・Claude Opus・Gemini Pro等)では、プロンプト+RAGで大半のユースケースに対応できます。ファインチューニングが本当に必要なのは、業種特化・専門用語・独自フォーマットなど明確な要件がある場合に限定されます。
Q3. RAGとファインチューニングは併用できますか?
はい、むしろ実用システムでは併用が一般的です。「知識はRAGで動的取得、応答スタイルはファインチューニングで統一」という組み合わせが法務・医療・金融など専門分野で広く採用されています。
Q4. ファインチューニングしたモデルは陳腐化しませんか?
します。元のベースモデルが新世代に更新されると、過去のファインチューニング結果は再学習が必要になります。ファインチューニングは「初期投資」ではなく「継続投資」が必要な手法です。
Q5. renueは3手法の選定支援を提供していますか?
はい、renueは複数のAIエージェント事業を本番運用する経験から、課題と要件を踏まえた手法選定、組み合わせ設計、プロンプト/RAG/ファインチューニングそれぞれの実装支援を提供しています。「いきなり大規模手法に飛びつかず、段階的に進める」ことを最優先としています。
関連記事
- Function Calling完全ガイド2026|LLMをアクション可能にする中核技術
- LiteLLM完全ガイド2026|100+ LLMを統一APIで扱うOSSゲートウェイ
- LLM API徹底比較2026
- LLM Observability・評価・ガードレール完全ガイド2026
- 生成AIセキュリティ完全ガイド2026
- AI MVPの作り方完全ガイド2026
- AI ROI完全ガイド2026
LLMアプリ設計・手法選定のご相談はrenueへ
renueは複数のAIエージェント事業を本番運用する技術コンサルティング企業です。プロンプト・RAG・ファインチューニングの3手法選定、組み合わせ設計、本番運用設計、コスト最適化などをご検討の方はお気軽にお問い合わせください。
本記事の参考情報
- IBM Think: RAG vs fine-tuning vs prompt engineering
- MyScale: プロンプトエンジニアリング vs ファインチューニング vs RAG
- InterSystems: RAG vs ファインチューニング vs プロンプト・エンジニアリング
- Zenn (acntechjp): プロンプト、RAG、ファインチューニングの違いを学ぶ
- helpmeee: ファインチューニングとRAGの違い
- SHIFT AI TIMES: プロンプトエンジニアリングとファインチューニングの違いと活用法
- OpenAI公式: Fine-tuning Documentation
- Anthropic公式ドキュメント
