🤖 LLM 支持使用 Ollama 的本地 LLM本页总览使用 Ollama 的本地 LLM 确保您的 Ollama 服务器已启动运行。有关详细的启动说明,请参阅此处 本指南假定您已通过 ollama serve 启动 ollama。如果您以其他方式运行 ollama(例如在 docker 内),说明可能需要进行修改。请注意,如果您在运行 WSL,默认的 ollama 配置会阻止来自 docker 容器的请求。请参阅此处。 拉取模型