生成AI(人工知能)の先進的な活用手段として、「AIエージェント」が登場している。米Amazon Web Services(アマゾン・ウェブ・サービス、AWS)、米Google(グーグル)、米Microsoft(マイクロソフト)は、AIエージェントの開発者向けにマネージドサービスを提供している。「LangChain」などのフレームワークを使って開発するよりも手軽にAIエージェントを開発できるのが特徴だ。
AWSが提供しているAIエージェント開発向けのサービスが、「Agents for Amazon Bedrock」だ。同サービスを使うと、GUI(グラフィカル・ユーザー・インターフェース)でAIエージェントを構築できる。
Agents for Amazon BedrockでAIエージェントを開発する際には、「あなたは在庫システムで製品の在庫状況を判断する在庫管理エージェントです」といったように、AIエージェントが果たすべき役割を大規模言語モデル(LLM)への指示として自然言語で記述する。処理に必要な情報をユーザーに聞き返すよう指示したり、目的外の入力に対して回答しないよう指示したりできる。AWSジャパンの岡本京エンタープライズ技術本部ハイテク・製造・自動車産業グループ本部長は、「Agents for Amazon Bedrockでは最低限定義すべき指示内容をデフォルトで用意している」と話す。
このサービスで使えるLLMは、米Anthropic(アンソロピック)の「Claude 3.5 Sonnet」など8種類だ。管理画面上からLLMの選択および切り替えができる。「価格や性能、処理速度を横並びで比較した上で用途に合うモデルを選択できる」(岡本本部長)とする。
AIエージェントが利用するAPI(アプリケーション・プログラミング・インターフェース)は「アクショングループ」という項目で設定できる。APIを呼び出すLambda関数をあらかじめ作成し、このLambda関数をどのような場面で使用するかをアクショングループで設定する。
Amazon Bedrockの「Knowledge Bases(ナレッジベース)」という機能を使って構築したRAG(検索拡張生成)を利用し、AIエージェントから社内のデータベースを参照することもできる。ナレッジベースでは、Amazon S3などにあるデータを専用のLLMでベクトル化して検索プラットフォームの「OpenSearch Serverless」に取り込む。AIエージェントからナレッジベースを使えるように設定すると、処理の実行に関連する情報をナレッジベースから検索できるようになる。Agents for Amazon Bedrockの設定画面で、どのような場面でAIエージェントがナレッジベースを使うかを設定する。
Agents for Amazon Bedrockには、ユーザーの指示が入力された後にAIエージェントがどのように思考し、どの処理を実行して最終回答に至ったか追跡できる機能もある。開発者はこのログを基にLLMへの指示内容を改善できる。
AWSはAIエージェントの応答精度を高めるための機能も強化している。「Code interpretation」では、計算処理やグラフの描画など、LLMで回答を生成するよりもプログラムを実行した方が回答の精度が高い処理をAIエージェントが自律的に判断し、コードを自動で記述して実行する。「Memory retention」では、AIエージェントが過去の処理内容を基に回答を生成する。従来は、AIエージェントが停止すると以前やり取りした文脈が失われていた。岡本本部長は「過去の文脈を把握できるため、AIエージェントのパーソナライズに役立つ」と話す。