Aller directement au contenu principal

Azure

OpenHands utilise LiteLLM pour effectuer des appels aux modèles de chat d'Azure. Vous pouvez trouver leur documentation sur l'utilisation d'Azure comme fournisseur ici.

Configuration d'Azure OpenAI

Lors de l'exécution d'OpenHands, vous devrez définir la variable d'environnement suivante en utilisant -e dans la commande docker run :

LLM_API_VERSION="<api-version>"              # ex. "2023-05-15"

Exemple :

docker run -it --pull=always \
-e LLM_API_VERSION="2023-05-15"
...

Ensuite, dans les paramètres de l'interface OpenHands :

remarque

Vous aurez besoin du nom de déploiement ChatGPT qui peut être trouvé sur la page des déploiements dans Azure. Il est référencé comme <deployment-name> ci-dessous.

  1. Activez les options Advanced.
  2. Définissez les éléments suivants :
    • Custom Model à azure/<deployment-name>
    • Base URL à votre URL de base de l'API Azure (ex. https://example-endpoint.openai.azure.com)
    • API Key à votre clé API Azure

Configuration d'Azure OpenAI

Lors de l'exécution d'OpenHands, définissez la variable d'environnement suivante en utilisant -e dans la commande docker run :

LLM_API_VERSION="<api-version>"                                    # ex. "2024-02-15-preview"