OpenAI
O OpenHands usa o LiteLLM para fazer chamadas para os modelos de chat da OpenAI. Você pode encontrar a documentação deles sobre como usar a OpenAI como provedor aqui.
Configuração
Ao executar o OpenHands, você precisará definir o seguinte na interface do usuário do OpenHands através das Configurações:
LLM Provider
paraOpenAI
LLM Model
para o modelo que você usará. Visite aqui para ver uma lista completa dos modelos da OpenAI que o LiteLLM suporta. Se o modelo não estiver na lista, ative as opçõesAdvanced
e insira-o emCustom Model
(por exemplo, openai/<model-name> comoopenai/gpt-4o
).API Key
para a sua chave de API da OpenAI. Para encontrar ou criar sua chave de API do projeto OpenAI, veja aqui.
Usando Endpoints Compatíveis com OpenAI
Assim como para as conclusões de chat da OpenAI, usamos o LiteLLM para endpoints compatíveis com OpenAI. Você pode encontrar a documentação completa deles sobre este tópico aqui.
Usando um Proxy OpenAI
Se você estiver usando um proxy OpenAI, na interface do usuário do OpenHands através das Configurações:
- Ative as opções
Advanced
- Defina o seguinte:
Custom Model
para openai/<model-name> (por exemplo,openai/gpt-4o
ou openai/<proxy-prefix>/<model-name>)Base URL
para a URL do seu proxy OpenAIAPI Key
para a sua chave de API da OpenAI