Google Gemini/Vertex
O OpenHands usa o LiteLLM para fazer chamadas aos modelos de chat do Google. Você pode encontrar a documentação sobre como usar o Google como provedor:
Configurações do Gemini - Google AI Studio
Ao executar o OpenHands, você precisará definir o seguinte na interface do OpenHands através das Configurações:
LLM Provider
paraGemini
LLM Model
para o modelo que você usará. Se o modelo não estiver na lista, ative as opçõesAdvanced
e insira-o emCustom Model
(por exemplo, gemini/<nome-do-modelo> comogemini/gemini-2.0-flash
).API Key
para sua chave de API do Gemini
Configurações do VertexAI - Google Cloud Platform
Para usar o Vertex AI através do Google Cloud Platform ao executar o OpenHands, você precisará definir as seguintes variáveis de ambiente usando -e
no comando docker run:
GOOGLE_APPLICATION_CREDENTIALS="<json-dump-da-conta-de-serviço-gcp-json>"
VERTEXAI_PROJECT="<seu-id-de-projeto-gcp>"
VERTEXAI_LOCATION="<sua-localização-gcp>"
Em seguida, defina o seguinte na interface do OpenHands através das Configurações:
LLM Provider
paraVertexAI
LLM Model
para o modelo que você usará. Se o modelo não estiver na lista, ative as opçõesAdvanced
e insira-o emCustom Model
(por exemplo, vertex_ai/<nome-do-modelo>).