Pular para o conteúdo principal

OpenAI

OpenHands usa o LiteLLM para fazer chamadas aos modelos de chat da OpenAI. Você pode encontrar a documentação sobre como usar a OpenAI como provedor aqui.

Configuração

Ao executar o OpenHands, você precisará definir o seguinte na interface do OpenHands através das Configurações:

Usando Endpoints Compatíveis com OpenAI

Assim como para as completions de chat da OpenAI, usamos o LiteLLM para endpoints compatíveis com OpenAI. Você pode encontrar a documentação completa sobre este tópico aqui.

Usando um Proxy OpenAI

Se você estiver usando um proxy OpenAI, na interface do OpenHands através das Configurações:

  1. Ative as opções Advanced
  2. Defina o seguinte:
    • Custom Model para openai/<nome-do-modelo> (por exemplo, openai/gpt-4o ou openai/<prefixo-do-proxy>/<nome-do-modelo>)
    • Base URL para a URL do seu proxy OpenAI
    • API Key para sua chave de API da OpenAI