跳到主要内容

使用SGLang或vLLM的本地LLM

注意

使用本地LLM时,OpenHands可能功能有限。 强烈建议您使用GPU来提供本地模型服务,以获得最佳体验。

新闻

  • 2025/03/31:我们发布了开源模型OpenHands LM v0.1 32B,在SWE-Bench Verified上达到37.1%的成绩 (博客模型)。

从Huggingface下载模型

例如,要下载OpenHands LM 32B v0.1

huggingface-cli download all-hands/openhands-lm-32b-v0.1 --local-dir all-hands/openhands-lm-32b-v0.1

使用模型服务框架创建兼容OpenAI的端点

使用SGLang提供服务

  • 按照官方文档安装SGLang。
  • OpenHands LM 32B的示例启动命令(至少需要2个GPU):
SGLANG_ALLOW_OVERWRITE_LONGER_CONTEXT_LEN=1 python3 -m sglang.launch_server \
--model all-hands/openhands-lm-32b-v0.1 \
--served-model-name openhands-lm-32b-v0.1 \
--port 8000 \
--tp 2 --dp 1 \
--host 0.0.0.0 \
--api-key mykey --context-length 131072

使用vLLM提供服务

  • 按照官方文档安装vLLM。
  • OpenHands LM 32B的示例启动命令(至少需要2个GPU):
vllm serve all-hands/openhands-lm-32b-v0.1 \
--host 0.0.0.0 --port 8000 \
--api-key mykey \
--tensor-parallel-size 2 \
--served-model-name openhands-lm-32b-v0.1
--enable-prefix-caching

运行和配置OpenHands

运行OpenHands

使用Docker

使用官方docker运行命令运行OpenHands。

使用开发模式

使用Development.md中的说明构建OpenHands。 通过运行make setup-config确保config.toml存在,它会为您创建一个。在config.toml中,输入以下内容:

[core]
workspace_base="/path/to/your/workspace"

[llm]
model="openhands-lm-32b-v0.1"
ollama_base_url="http://localhost:8000"

使用make run启动OpenHands。

配置OpenHands

一旦OpenHands运行起来,您需要通过设置在OpenHands UI中设置以下内容:

  1. 启用高级选项。
  2. 设置以下内容:
  • 自定义模型openai/<served-model-name>(例如openai/openhands-lm-32b-v0.1
  • 基础URLhttp://host.docker.internal:8000
  • API密钥为您在提供模型服务时设置的相同字符串(例如mykey