Groq
O OpenHands usa o LiteLLM para fazer chamadas para modelos de chat no Groq. Você pode encontrar a documentação deles sobre como usar o Groq como provedor aqui.
Configuração
Ao executar o OpenHands, você precisará definir o seguinte na interface do usuário do OpenHands através das Configurações:
LLM Provider
paraGroq
LLM Model
para o modelo que você usará. Visite aqui para ver a lista de modelos que o Groq hospeda. Se o modelo não estiver na lista, ative as opçõesAdvanced
e insira-o emCustom Model
(por exemplo, groq/<model-name> comogroq/llama3-70b-8192
).API key
para sua chave de API do Groq. Para encontrar ou criar sua chave de API do Groq, veja aqui.
Usando o Groq como um Endpoint Compatível com OpenAI
O endpoint do Groq para conclusão de chat é em grande parte compatível com OpenAI. Portanto, você pode acessar os modelos do Groq como acessaria qualquer endpoint compatível com OpenAI. Na interface do usuário do OpenHands, através das Configurações:
- Habilite as opções
Advanced
- Defina o seguinte:
Custom Model
para o prefixoopenai/
+ o modelo que você usará (por exemplo,openai/llama3-70b-8192
)Base URL
parahttps://api.groq.com/openai/v1
API Key
para sua chave de API do Groq