🚧 故障排除
以下是用户经常报告的一些错误信息。
我们将努力使安装过程更加简单,并改善这些错误信息。不过,现在您可以在下面找到您的错误信息,并查看是否有任何解决方法。
对于这些错误信息,都已经有相关的报告。请不要打开新的报告——只需在现有的报告中发表评论即可。
如果您发现更多信息或者一个解决方法,请提交一个 PR 来添加细节到这个文件中。
提示
如果您在 Windows 上运行并遇到问题,请查看我们的Windows (WSL) 用户指南。
无法连接到 Docker
症状
创建控制器时出错。请检查 Docker 是否正在运行,并访问 `https://opendevin.github.io/OpenDevin/modules/usage/troubleshooting` 获取更多调试信息。
docker.errors.DockerException: 获取服务器 API 版本时出错: ('连接中止。', FileNotFoundError(2, '没有这样的文件或目录'))
详情
OpenDevin 使用 Docker 容器来安全地完成工作,而不会破坏您的机器。
解决方法
- 运行
docker ps
以确保 Docker 正在运行 - 确保您不需要使用
sudo
运行 Docker 请参见此处 - 如果您使用的是 Mac,请检查权限要求 ,特别是考虑在 Docker Desktop 的
Settings > Advanced
下启用Allow the default Docker socket to be used
。 - 另外,升级您的 Docker 到最新版本,选择
Check for Updates
无法连接到 DockerSSHBox
症状
self.shell = DockerSSHBox(
...
pexpect.pxssh.ExceptionPxssh: Could not establish connection to host
详情
默认情况下,OpenDevin 使用 SSH 连接到一个运行中的容器。在某些机器上,尤其是 Windows,这似乎会失败。
解决方法
- 重新启动您的计算机(有时会有用)
- 确保拥有最新版本的 WSL 和 Docker
- 检查您的 WSL 分发版也已更 新
- 尝试此重新安装指南
无法连接到 LLM
症状
File "/app/.venv/lib/python3.12/site-packages/openai/_exceptions.py", line 81, in __init__
super().__init__(message, response.request, body=body)
^^^^^^^^^^^^^^^^
AttributeError: 'NoneType' object has no attribute 'request'
详情
这通常发生在本地 LLM 设置中,当 OpenDevin 无法连接到 LLM 服务器时。请参阅我们的 本地 LLM 指南 以获取更多信息。
解决方法
- 检查您的
config.toml
文件中 "llm" 部分的base_url
是否正确(如果存在) - 检查 Ollama(或您使用的其他 LLM)是否正常运行
- 确保在 Docker 中运行时使用
--add-host host.docker.internal:host-gateway
404 Resource not found 资源未找到
症状
Traceback (most recent call last):
File "/app/.venv/lib/python3.12/site-packages/litellm/llms/openai.py", line 414, in completion
raise e
File "/app/.venv/lib/python3.12/site-packages/litellm/llms/openai.py", line 373, in completion
response = openai_client.chat.completions.create(**data, timeout=timeout) # type: ignore
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/app/.venv/lib/python3.12/site-packages/openai/_utils/_utils.py", line 277, in wrapper
return func(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^
File "/app/.venv/lib/python3.12/site-packages/openai/resources/chat/completions.py", line 579, in create
return self._post(
^^^^^^^^^^^
File "/app/.venv/lib/python3.12/site-packages/openai/_base_client.py", line 1232, in post
return cast(ResponseT, self.request(cast_to, opts, stream=stream, stream_cls=stream_cls))
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/app/.venv/lib/python3.12/site-packages/openai/_base_client.py", line 921, in request
return self._request(
^^^^^^^^^^^^^^
File "/app/.venv/lib/python3.12/site-packages/openai/_base_client.py", line 1012, in _request
raise self._make_status_error_from_response(err.response) from None
openai.NotFoundError: Error code: 404 - {'error': {'code': '404', 'message': 'Resource not found'}}
详情
当 LiteLLM(我们用于连接不同 LLM 提供商的库)找不到您要连接的 API 端点时,会发生这种情况。最常见的情况是 Azure 或 Ollama 用户。
解决方法
- 检查您是否正确设置了
LLM_BASE_URL
- 检查模型是否正确设置,基于 LiteLLM 文档
- 如果您在 UI 中运行,请确保在设置模式中设置
model
- 如果您通过 main.py 运行,请确保在环境变量/配置中设置
LLM_MODEL
- 如果您在 UI 中运行,请确保在设置模式中设置
- 确保遵循了您的 LLM 提供商的任何特殊说明
- 确保您的 API 密钥正确无误
- 尝试使用
curl
连接到 LLM - 尝试直接通过 LiteLLM 连接来测试您的设置