Aller directement au contenu principal

Azure

OpenHands utilise LiteLLM pour faire des appels aux modèles de chat d'Azure. Vous pouvez trouver leur documentation sur l'utilisation d'Azure comme fournisseur ici.

Configuration d'Azure OpenAI

Lorsque vous exécutez OpenHands, vous devrez définir la variable d'environnement suivante en utilisant -e dans la commande docker run :

LLM_API_VERSION="<api-version>"              # par exemple "2023-05-15"

Exemple :

docker run -it --pull=always \
-e LLM_API_VERSION="2023-05-15"
...

Ensuite, définissez les éléments suivants dans l'interface utilisateur d'OpenHands via les paramètres :

remarque

Vous aurez besoin du nom de votre déploiement ChatGPT qui peut être trouvé sur la page des déploiements dans Azure. Il est référencé comme <deployment-name> ci-dessous.

  • Activez Advanced Options
  • Custom Model à azure/<deployment-name>
  • Base URL à votre URL de base de l'API Azure (par exemple https://example-endpoint.openai.azure.com)
  • API Key à votre clé API Azure

Embeddings

OpenHands utilise llama-index pour les embeddings. Vous pouvez trouver leur documentation sur Azure ici.

Configuration d'Azure OpenAI

Lorsque vous exécutez OpenHands, définissez les variables d'environnement suivantes en utilisant -e dans la commande docker run :

LLM_EMBEDDING_MODEL="azureopenai"
LLM_EMBEDDING_DEPLOYMENT_NAME="<your-embedding-deployment-name>" # par exemple "TextEmbedding...<etc>"
LLM_API_VERSION="<api-version>" # par exemple "2024-02-15-preview"