【Open WebUI】Ollamaに接続できない「Connection refused」エラーの解決法

この記事では、Open WebUI(旧Ollama WebUI)からOllamaサーバーに接続できず「Connection refused」エラーが発生する問題について、海外コミュニティでの解決策を要約して解説します。

1. どんな問題(エラー)が発生したか?

  • 発生した環境やツール: Open WebUI(Docker)、Ollama
  • エラーメッセージ: Connection refused または Could not connect to Ollama server
  • 症状: Open WebUIの画面は表示されるが、モデル一覧が空でチャットができない

2. 結論(解決策)

DockerコンテナからホストのOllamaへのネットワーク接続設定が正しくないことが原因です。

3. 具体的な手順

  1. Ollamaがリッスンするアドレスを変更
    デフォルトではOllamaは127.0.0.1(localhost)のみリッスンします。全インターフェースでリッスンするように変更:

    export OLLAMA_HOST=0.0.0.0:11434

    systemdの場合:

    sudo systemctl edit ollama
    # [Service]セクションに追加
    Environment="OLLAMA_HOST=0.0.0.0"
  2. Open WebUIのDocker起動コマンドを修正
    docker run -d -p 3000:8080 \
      --add-host=host.docker.internal:host-gateway \
      -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
      --name open-webui \
      ghcr.io/open-webui/open-webui:main
  3. 接続確認
    # コンテナ内からOllamaに接続確認
    docker exec open-webui curl http://host.docker.internal:11434/api/tags

4. 補足・注意点

Open WebUIとOllamaを同じDocker Composeで起動する場合は、サービス名で接続できます(例:http://ollama:11434)。ファイアウォールが11434ポートをブロックしている場合もあるため、ufw statusなどで確認してください。


5.
👉 【RunPod】1時間数十円から使える高性能クラウドGPU

参考元

本記事は海外コミュニティの複数のディスカッションを要約・再構成したものです。

Source: Open WebUI Docs

💡 この問題を根本的に解決するには

ローカル環境のGPUトラブルが頻発する場合、ハードウェアの見直しも検討してみてください:

💡 この問題を根本的に解決するには

ローカル環境でGPUトラブルが頻発する場合、クラウドGPUサービスの利用も検討してみてください。環境構築の手間なく、すぐにAI開発を始められます。

  • RunPod — RTX 4090が$0.44/h〜、ワンクリックでJupyter環境が起動
  • Vast.ai — コミュニティGPUマーケットプレイス、最安値でGPUレンタル
この記事は役に立ちましたか?