Groq
OpenHands utilise LiteLLM pour effectuer des appels aux modèles de chat sur Groq. Vous pouvez trouver leur documentation sur l'utilisation de Groq comme fournisseur ici.
Configuration
Lors de l'exécution d'OpenHands, vous devrez définir les éléments suivants dans l'interface utilisateur d'OpenHands via les Paramètres :
LLM Provider
surGroq
LLM Model
sur le modèle que vous utiliserez. Visitez ce lien pour voir la liste des modèles hébergés par Groq. Si le modèle n'est pas dans la liste, activez les optionsAdvanced
, et saisissez-le dansCustom Model
(par exemple groq/<nom-du-modèle> commegroq/llama3-70b-8192
).API key
avec votre clé API Groq. Pour trouver ou créer votre clé API Groq, voir ici.
Utilisation de Groq comme point de terminaison compatible OpenAI
Le point de terminaison Groq pour la complétion de chat est majoritairement compatible avec OpenAI. Par conséquent, vous pouvez accéder aux modèles Groq comme vous accéderiez à n'importe quel point de terminaison compatible OpenAI. Dans l'interface utilisateur d'OpenHands via les Paramètres :
- Activez les options
Advanced
- Définissez les éléments suivants :
Custom Model
avec le préfixeopenai/
+ le modèle que vous utiliserez (par exempleopenai/llama3-70b-8192
)Base URL
surhttps://api.groq.com/openai/v1
API Key
avec votre clé API Groq