Google Gemini/Vertex
OpenHands utilise LiteLLM pour effectuer des appels aux modèles de chat de Google. Vous pouvez consulter leur documentation sur l'utilisation de Google comme fournisseur :
Configurations Gemini - Google AI Studio
Lors de l'exécution d'OpenHands, vous devrez définir les éléments suivants dans l'interface utilisateur d'OpenHands via les Paramètres :
LLM Provider
surGemini
LLM Model
sur le modèle que vous utiliserez. Si le modèle n'est pas dans la liste, activez les optionsAdvanced
, et saisissez-le dansCustom Model
(par exemple gemini/<nom-du-modèle> commegemini/gemini-2.0-flash
).API Key
avec votre clé API Gemini
Configurations VertexAI - Google Cloud Platform
Pour utiliser Vertex AI via Google Cloud Platform lors de l'exécution d'OpenHands, vous devrez définir les variables d'environnement suivantes en utilisant -e
dans la commande docker run :
GOOGLE_APPLICATION_CREDENTIALS="<json-dump-du-compte-de-service-gcp-json>"
VERTEXAI_PROJECT="<votre-id-de-projet-gcp>"
VERTEXAI_LOCATION="<votre-emplacement-gcp>"
Ensuite, définissez les éléments suivants dans l'interface utilisateur d'OpenHands via les Paramètres :
LLM Provider
surVertexAI
LLM Model
sur le modèle que vous utiliserez. Si le modèle n'est pas dans la liste, activez les optionsAdvanced
, et saisissez-le dansCustom Model
(par exemple vertex_ai/<nom-du-modèle>).