メインコンテンツに直接移動

Google Gemini/Vertex

OpenHandsはLiteLLMを使用してGoogleのチャットモデルを呼び出します。Googleをプロバイダーとして使用する方法については、以下のドキュメントを参照してください:

Gemini - Google AI Studioの設定

OpenHandsを実行する際、設定画面で以下を設定する必要があります:

  • LLM ProviderGeminiに設定
  • LLM Modelを使用するモデルに設定 モデルがリストにない場合は、Advancedオプションを切り替えて、Custom Modelに入力してください(例:gemini/<model-name>、gemini/gemini-2.0-flashなど)。
  • API KeyにGemini APIキーを設定

VertexAI - Google Cloud Platformの設定

Google Cloud PlatformのVertex AIを使用してOpenHandsを実行する場合、docker runコマンド-eを使用して以下の環境変数を設定する必要があります:

GOOGLE_APPLICATION_CREDENTIALS="<gcp-サービスアカウントjsonのjsonダンプ>"
VERTEXAI_PROJECT="<あなたのgcpプロジェクトid>"
VERTEXAI_LOCATION="<あなたのgcpロケーション>"

その後、OpenHandsのUI設定で以下を設定します:

  • LLM ProviderVertexAIに設定
  • LLM Modelを使用するモデルに設定 モデルがリストにない場合は、Advancedオプションを切り替えて、Custom Modelに入力してください(例:vertex_ai/<model-name>)。