Aller directement au contenu principal

🚧 Dépannage

Il y a certains messages d'erreur qui sont fréquemment signalés par les utilisateurs. Nous allons essayer de rendre le processus d'installation plus facile, mais pour l'instant vous pouvez rechercher votre message d'erreur ci-dessous et voir s'il y a des solutions de contournement. Si vous trouvez plus d'informations ou une solution de contournement pour l'un de ces problèmes, veuillez ouvrir une PR pour ajouter des détails à ce fichier.

astuce

OpenHands ne prend en charge Windows que via WSL. Veuillez vous assurer d'exécuter toutes les commandes à l'intérieur de votre terminal WSL. Consultez les Notes pour les utilisateurs de WSL sur Windows pour des guides de dépannage.

Problèmes courants​

Impossible de se connecter à Docker​

GitHub Issue

SymptĂ´mes

Error creating controller. Please check Docker is running and visit `https://docs.all-hands.dev/modules/usage/troubleshooting` for more debugging information.
docker.errors.DockerException: Error while fetching server API version: ('Connection aborted.', FileNotFoundError(2, 'No such file or directory'))

DĂ©tails

OpenHands utilise un conteneur Docker pour faire son travail en toute sécurité, sans risquer de casser votre machine.

Solutions de contournement

  • ExĂ©cutez docker ps pour vous assurer que docker est en cours d'exĂ©cution
  • Assurez-vous que vous n'avez pas besoin de sudo pour exĂ©cuter docker voir ici
  • Si vous ĂŞtes sur un Mac, vĂ©rifiez les exigences d'autorisation et en particulier envisagez d'activer Allow the default Docker socket to be used sous Settings > Advanced dans Docker Desktop.
  • De plus, mettez Ă  niveau votre Docker vers la dernière version sous Check for Updates

404 Ressource introuvable​

SymptĂ´mes

Traceback (most recent call last):
File "/app/.venv/lib/python3.12/site-packages/litellm/llms/openai.py", line 414, in completion
raise e
File "/app/.venv/lib/python3.12/site-packages/litellm/llms/openai.py", line 373, in completion
response = openai_client.chat.completions.create(**data, timeout=timeout) # type: ignore
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/app/.venv/lib/python3.12/site-packages/openai/_utils/_utils.py", line 277, in wrapper
return func(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^
File "/app/.venv/lib/python3.12/site-packages/openai/resources/chat/completions.py", line 579, in create
return self._post(
^^^^^^^^^^^
File "/app/.venv/lib/python3.12/site-packages/openai/_base_client.py", line 1232, in post
return cast(ResponseT, self.request(cast_to, opts, stream=stream, stream_cls=stream_cls))
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/app/.venv/lib/python3.12/site-packages/openai/_base_client.py", line 921, in request
return self._request(
^^^^^^^^^^^^^^
File "/app/.venv/lib/python3.12/site-packages/openai/_base_client.py", line 1012, in _request
raise self._make_status_error_from_response(err.response) from None
openai.NotFoundError: Error code: 404 - {'error': {'code': '404', 'message': 'Resource not found'}}

DĂ©tails

Cela se produit lorsque LiteLLM (notre bibliothèque pour se connecter à différents fournisseurs de LLM) ne peut pas trouver le point de terminaison d'API auquel vous essayez de vous connecter. Le plus souvent, cela se produit pour les utilisateurs d'Azure ou d'ollama.

Solutions de contournement

  • VĂ©rifiez que vous avez correctement dĂ©fini LLM_BASE_URL
  • VĂ©rifiez que le modèle est correctement dĂ©fini, en fonction de la documentation de LiteLLM
    • Si vous exĂ©cutez dans l'interface utilisateur, assurez-vous de dĂ©finir le model dans la fenĂŞtre modale des paramètres
    • Si vous exĂ©cutez en mode headless (via main.py), assurez-vous de dĂ©finir LLM_MODEL dans votre env/config
  • Assurez-vous d'avoir suivi toutes les instructions spĂ©ciales pour votre fournisseur de LLM
  • Assurez-vous que votre clĂ© API est correcte
  • Voyez si vous pouvez vous connecter au LLM en utilisant curl
  • Essayez de vous connecter directement via LiteLLM pour tester votre configuration

make build bloqué sur les installations de paquets​

SymptĂ´mes

L'installation des paquets est bloquée sur Pending... sans aucun message d'erreur :

Package operations: 286 installs, 0 updates, 0 removals

- Installing certifi (2024.2.2): Pending...
- Installing h11 (0.14.0): Pending...
- Installing idna (3.7): Pending...
- Installing sniffio (1.3.1): Pending...
- Installing typing-extensions (4.11.0): Pending...

DĂ©tails

Dans de rares cas, make build peut sembler se bloquer sur les installations de paquets sans aucun message d'erreur.

Solutions de contournement

L'installateur de paquets Poetry peut manquer un paramètre de configuration pour savoir où rechercher les informations d'identification (keyring).

Vérifiez d'abord avec env si une valeur pour PYTHON_KEYRING_BACKEND existe. Si ce n'est pas le cas, exécutez la commande ci-dessous pour la définir sur une valeur connue et réessayez la construction :

export PYTHON_KEYRING_BACKEND=keyring.backends.null.Keyring

Les sessions ne sont pas restaurées​

SymptĂ´mes

OpenHands demande généralement s'il faut reprendre ou démarrer une nouvelle session lors de l'ouverture de l'interface utilisateur. Mais cliquer sur "Reprendre" démarre quand même un nouveau chat.

DĂ©tails

Avec une installation standard à ce jour, les données de session sont stockées en mémoire. Actuellement, si le service OpenHands est redémarré, les sessions précédentes deviennent invalides (un nouveau secret est généré) et donc non récupérables.

Solutions de contournement

  • Modifiez la configuration pour rendre les sessions persistantes en Ă©ditant le fichier config.toml (dans le dossier racine d'OpenHands) en spĂ©cifiant un file_store et un file_store_path absolu :
file_store="local"
file_store_path="/absolute/path/to/openhands/cache/directory"
  • Ajoutez un secret jwt fixe dans votre .bashrc, comme ci-dessous, afin que les ID de session prĂ©cĂ©dents restent acceptĂ©s.
EXPORT JWT_SECRET=A_CONST_VALUE