OpenAI
OpenHands utilise LiteLLM pour effectuer des appels aux modèles de chat d'OpenAI. Vous pouvez trouver leur documentation sur l'utilisation d'OpenAI comme fournisseur ici.
Configuration
Lors de l'exécution d'OpenHands, vous devrez définir les éléments suivants dans l'interface utilisateur d'OpenHands via les Paramètres :
LLM Provider
surOpenAI
LLM Model
sur le modèle que vous utiliserez. Visitez ce lien pour voir une liste complète des modèles OpenAI pris en charge par LiteLLM. Si le modèle ne figure pas dans la liste, activez les optionsAdvanced
, et saisissez-le dansCustom Model
(par exemple openai/<nom-du-modèle> commeopenai/gpt-4o
).API Key
avec votre clé API OpenAI. Pour trouver ou créer votre clé API de projet OpenAI, voir ici.
Utilisation des points de terminaison compatibles avec OpenAI
Tout comme pour les compléments de chat OpenAI, nous utilisons LiteLLM pour les points de terminaison compatibles avec OpenAI. Vous pouvez trouver leur documentation complète sur ce sujet ici.
Utilisation d'un proxy OpenAI
Si vous utilisez un proxy OpenAI, dans l'interface utilisateur d'OpenHands via les Paramètres :
- Activez les options
Advanced
- Définissez les éléments suivants :
Custom Model
sur openai/<nom-du-modèle> (par exempleopenai/gpt-4o
ou openai/<préfixe-proxy>/<nom-du-modèle>)Base URL
sur l'URL de votre proxy OpenAIAPI Key
sur votre clé API OpenAI