OpenAI
OpenHands utilise LiteLLM pour effectuer des appels aux modèles de chat d'OpenAI. Vous pouvez trouver leur documentation sur l'utilisation d'OpenAI en tant que fournisseur ici.
Configuration
Lors de l'exécution d'OpenHands, vous devrez définir les éléments suivants dans l'interface utilisateur d'OpenHands via les paramètres :
LLM Provider
àOpenAI
LLM Model
au modèle que vous utiliserez. Visitez ce lien pour voir une liste complète des modèles OpenAI pris en charge par LiteLLM. Si le modèle ne figure pas dans la liste, activez lesAdvanced Options
et entrez-le dansCustom Model
(par exemple, openai/<model-name> commeopenai/gpt-4o
).API Key
à votre clé API OpenAI. Pour trouver ou créer votre clé API de projet OpenAI, voir ici.
Utilisation des endpoints compatibles OpenAI
Tout comme pour les chat completions OpenAI, nous utilisons LiteLLM pour les endpoints compatibles OpenAI. Vous pouvez trouver leur documentation complète sur ce sujet ici.
Utilisation d'un proxy OpenAI
Si vous utilisez un proxy OpenAI, vous devrez définir les éléments suivants dans l'interface utilisateur d'OpenHands via les paramètres :
- Activer les
Advanced Options
Custom Model
à openai/<model-name> (par exemple,openai/gpt-4o
ou openai/<proxy-prefix>/<model-name>)Base URL
à l'URL de votre proxy OpenAIAPI Key
à votre clé API OpenAI