Pular para o conteúdo principal

Groq

O OpenHands usa o LiteLLM para fazer chamadas para modelos de chat no Groq. Você pode encontrar a documentação deles sobre como usar o Groq como provedor aqui.

Configuração

Ao executar o OpenHands, você precisará definir o seguinte na interface do usuário do OpenHands através das Configurações:

  • LLM Provider para Groq
  • LLM Model para o modelo que você usará. Visite aqui para ver a lista de modelos que o Groq hospeda. Se o modelo não estiver na lista, ative as opções Advanced e insira-o em Custom Model (por exemplo, groq/<model-name> como groq/llama3-70b-8192).
  • API key para sua chave de API do Groq. Para encontrar ou criar sua chave de API do Groq, veja aqui.

Usando o Groq como um Endpoint Compatível com OpenAI

O endpoint do Groq para conclusão de chat é em grande parte compatível com OpenAI. Portanto, você pode acessar os modelos do Groq como acessaria qualquer endpoint compatível com OpenAI. Na interface do usuário do OpenHands, através das Configurações:

  1. Habilite as opções Advanced
  2. Defina o seguinte:
    • Custom Model para o prefixo openai/ + o modelo que você usará (por exemplo, openai/llama3-70b-8192)
    • Base URL para https://api.groq.com/openai/v1
    • API Key para sua chave de API do Groq