Google Gemini/Vertex
OpenHands utilise LiteLLM pour faire des appels aux modèles de chat de Google. Vous pouvez trouver leur documentation sur l'utilisation de Google comme fournisseur :
Configurations de Gemini - Google AI Studio
Lors de l'exécution d'OpenHands, vous devrez définir les éléments suivants dans l'interface utilisateur d'OpenHands via les paramètres :
LLM Provider
àGemini
LLM Model
au modèle que vous utiliserez. Si le modèle ne figure pas dans la liste, activezAdvanced Options
et entrez-le dansCustom Model
(par exemple, gemini/<model-name> commegemini/gemini-1.5-pro
).API Key
à votre clé API Gemini
Configurations de VertexAI - Google Cloud Platform
Pour utiliser Vertex AI via Google Cloud Platform lors de l'exécution d'OpenHands, vous devrez définir les variables d'environnement suivantes en utilisant -e
dans la commande docker run :
GOOGLE_APPLICATION_CREDENTIALS="<json-dump-of-gcp-service-account-json>"
VERTEXAI_PROJECT="<your-gcp-project-id>"
VERTEXAI_LOCATION="<your-gcp-location>"
Ensuite, définissez les éléments suivants dans l'interface utilisateur d'OpenHands via les paramètres :
LLM Provider
àVertexAI
LLM Model
au modèle que vous utiliserez. Si le modèle ne figure pas dans la liste, activezAdvanced Options
et entrez-le dansCustom Model
(par exemple, vertex_ai/<model-name>).