Pular para o conteúdo principal

OpenAI

O OpenHands usa o LiteLLM para fazer chamadas para os modelos de chat da OpenAI. Você pode encontrar a documentação deles sobre como usar a OpenAI como provedor aqui.

Configuração

Ao executar o OpenHands, você precisará definir o seguinte na interface do usuário do OpenHands através das Configurações:

Usando Endpoints Compatíveis com OpenAI

Assim como para as conclusões de chat da OpenAI, usamos o LiteLLM para endpoints compatíveis com OpenAI. Você pode encontrar a documentação completa deles sobre este tópico aqui.

Usando um Proxy OpenAI

Se você estiver usando um proxy OpenAI, na interface do usuário do OpenHands através das Configurações:

  1. Ative as opções Advanced
  2. Defina o seguinte:
    • Custom Model para openai/<model-name> (por exemplo, openai/gpt-4o ou openai/<proxy-prefix>/<model-name>)
    • Base URL para a URL do seu proxy OpenAI
    • API Key para a sua chave de API da OpenAI