この記事では、Open WebUI(旧Ollama WebUI)からOllamaサーバーに接続できず「Connection refused」エラーが発生する問題について、海外コミュニティでの解決策を要約して解説します。
1. どんな問題(エラー)が発生したか?
- 発生した環境やツール: Open WebUI(Docker)、Ollama
- エラーメッセージ:
Connection refusedまたはCould not connect to Ollama server - 症状: Open WebUIの画面は表示されるが、モデル一覧が空でチャットができない
2. 結論(解決策)
DockerコンテナからホストのOllamaへのネットワーク接続設定が正しくないことが原因です。
3. 具体的な手順
- Ollamaがリッスンするアドレスを変更
デフォルトではOllamaは127.0.0.1(localhost)のみリッスンします。全インターフェースでリッスンするように変更:export OLLAMA_HOST=0.0.0.0:11434systemdの場合:
sudo systemctl edit ollama # [Service]セクションに追加 Environment="OLLAMA_HOST=0.0.0.0" - Open WebUIのDocker起動コマンドを修正
docker run -d -p 3000:8080 \ --add-host=host.docker.internal:host-gateway \ -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \ --name open-webui \ ghcr.io/open-webui/open-webui:main - 接続確認
# コンテナ内からOllamaに接続確認 docker exec open-webui curl http://host.docker.internal:11434/api/tags
4. 補足・注意点
Open WebUIとOllamaを同じDocker Composeで起動する場合は、サービス名で接続できます(例:http://ollama:11434)。ファイアウォールが11434ポートをブロックしている場合もあるため、ufw statusなどで確認してください。
5.
👉 【RunPod】1時間数十円から使える高性能クラウドGPU
参考元
本記事は海外コミュニティの複数のディスカッションを要約・再構成したものです。
Source: Open WebUI Docs
💡 この問題を根本的に解決するには
ローカル環境のGPUトラブルが頻発する場合、ハードウェアの見直しも検討してみてください:
- VRAM不足なら → RTX 4070 Ti Super(16GB VRAM)
- メモリ不足なら → DDR5 64GBメモリ
- AI開発を体系的に学ぶなら → AI・機械学習の実践書籍