TOP > ITコラム > ドキュメント検索の未来形!Amazon Bedrockで実現するRAGでのAIソリューション ドキュメント検索の未来形!Amazon Bedrockで実現するRAGでのAIソリューション
2025年1月20日
海外製のプラットフォームは英語で記述された膨大な技術文書や業務マニュアルが多く、必要な情報を探すのに困ったことはありませんか?キーワード検索だと目的の情報に辿り着くまでに時間がかかり、ようやく辿り着いたとしても英語のままでは理解に時間がかかることも少なくありません。
そんな課題を解決するために、私たちはAmazon Bedrockを活用してRAG(Retrieval-Augmented Generation)アプローチを用いたAIチャットボットを導入しました。
このチャットボットを利用することで、ドキュメント検索が大幅に楽になったのでご紹介します。
システムの特徴
- 日本語で質問すると日本語で回答
英語のドキュメントをAmazon Bedrockに反映しておけば、ユーザーは日本語で質問を投げかけるだけで、日本語での回答を即座に得られます。英語で検索し、翻訳する手間が完全に省かれるため、業務効率が飛躍的に向上します。
- ドキュメント内にある内容のみ回答
事前に登録されたドキュメント内の情報に基づいて回答を行うため、不要な回答をしないので安心です。
- 簡単なセットアップ
Amazon Bedrockは、PDF形式の技術文書をそのまま反映するだけで利用を開始できます。
複雑なデータ処理や追加のコーディングなしで、数千のドキュメントを迅速にシステムに統合できる点が大きな魅力です。
- 短期間で開発可能
システム全体の構築は、フロントエンドにNuxt 3、バックエンドにLaravelを採用したことで、2ヶ月以内で完了しました。
効率的な開発プロセスにより、短期間で実用性の高いソリューションを提供することができました。
Amazon Bedrockを活用したRAGの仕組み
RAGは大きく以下の2つのコンポーネントで構成されます。
- Retriever(検索エンジン)
質問に関連する情報を大量のデータセットから迅速に抽出する役割を担います。
- Generator(生成モデル)
Retrieverが抽出した情報を基に、ユーザーの質問に対して自然言語で回答を生成します。
Amazon Bedrockでは、高度な生成モデル(例:Anthropic、AI21 Labsなどの提供するLLM)を簡単に統合できるため、RAGの構築を迅速かつ効率的に進めることが可能です。
Amazon BedrockとRAGを組み合わせた処理の流れの例
- ユーザーからの質問を受け取る
フロントエンド(Nuxt 3)からLaravelのAPIを通じて質問をサーバーに送信します。
- 関連情報の検索
Laravel側でRetrieverを呼び出し、質問に関連するドキュメントセクションを検索します。
- 生成モデルへのデータ送信
検索結果をAmazon Bedrockの生成モデルに送信し、回答を生成します。
この際、ユーザーの質問を日本語で入力した場合でも、生成モデルが適切に処理できるよう事前に翻訳することも可能です。
- 回答の返却
生成された回答を日本語でフロントエンドに返し、ユーザーに表示します。
いかがでしょうか?
専用のAIを開発するには学習データが必要で余計なことを回答しないように調整が必要でしたが、ドキュメントを反映するだけで開発できるようになりました。
大量のドキュメント検索でお困りの際はお気軽にご相談下さい。
投稿者:

Saito