視点

それRAGで出来ますか?

2025/02/26 09:00

週刊BCN 2025年02月24日vol.2048掲載

 「プライベートLLM」への関心が高まりつつある。これまでは「ChatGPT」や「Gemini」などのパブリックLLMに、RAG(検索拡張生成)を組み合わせたサービスが主流であった。RAGなら「パブリックLLMがプライベートデータを学習しないからデータが漏れない」点を売りにしていた。

 しかし、業務に最適化されたLLMを構築するには、RAGでは不十分である。RAGは「学習しない」ため、過去の問い合わせや業務履歴を生かした継続的な改善ができず、同じ質問でも一貫性のある回答が保証されない。検索対象のデータ品質や構造に依存し、データ管理の負担も大きい。

 LLMの学習プロセスを学校教育に例えると分かりやすい。プリトレーニングは「教科書」の作成に相当し、一般知識を学ぶ段階である。しかし、教科書だけでは実務対応は難しい。ファインチューニングは「授業」に相当し、特定の業務や分野に適した知識の使い方を学習する。一方、RAGは都度情報を検索するが、知識として蓄積されない。そのため、業務フローの改善や問い合わせ対応の品質向上といった持続的な成長は見込めない。

 RAGは日々変化する情報の活用には適しているが、業務に最適化されたLLMがほしければファインチューニングは不可避である。例えば、企業のFAQ対応LLMでは、RAGだけでは過去の質問の傾向や業務特有のニュアンスを学習せず、応答の一貫性も欠ける。ファインチューニングを施せば、業務フローに適応した応答が可能となり、より自然で効率的な対応が実現する可能性が高まる。

 日本市場では「データを学習させる=リスク」と捉えられがちであるが、オンプレミス運用と適切なデータ管理を組み合わせれば、リスクを抑えた学習は十分可能である。実際、多くの企業が、厳格なポリシーの下で独自データを活用し、プライベートLLMの精度向上に取り組んでいる。安全な環境で適切にデータを管理し、適切な範囲で学習を行うことで、より効果的なLLM活用が実現できる。

 プライベートLLMの真価を引き出すには、「学習しないLLM」から脱却し、「学習するLLM」を構築する視点が不可欠である。役立つLLM導入を目指すには、日々のデータ収集と継続的な学習を可能にするLLM運用環境の整備こそがかぎとなる。

 
株式会社SENTAN 代表取締役 松田利夫
松田 利夫(まつだ としお)
 1947年10月、東京都八王子市生まれ。77年、慶應義塾大学工学研究科博士課程管理工学専攻単位取得後退学。東京理科大学理工学部情報科学科助手を経て、山梨学院大学経営情報学部助教授、教授を歴任。90年代に日本語ドメインサービス事業立上げ。以降ASP、SaaS、クラウドの啓蒙団体設立に参加。現在、「一般社団法人 みんなのクラウド」の理事を務める。
  • 1