この記事では、AMD GPU環境でComfyUIをZLUDA経由でセットアップする際に、Python 3.14の非対応によりtorch、onnxruntime、tritonがインストールできない問題について解説します。
1. どんな問題(エラー)が発生したか?
- 発生した環境やツール: Windows 10、AMD GPU、ZLUDA(HIP 6.2.4/6.4.2)、Python 3.14
- エラーメッセージ:
ERROR: No matching distribution found for torch、ModuleNotFoundError: No module named 'triton' - 症状: ZLUDAインストールスクリプトが依存パッケージのインストールに失敗し、ComfyUIが起動しない
2. 結論(解決策)
2025年時点で、torch、onnxruntime、tritonはPython 3.14に対応したwheelを提供していません。Python 3.10または3.11をインストールし、仮想環境を作り直す必要があります。
3. 具体的な手順
Step 1: Python 3.10/3.11のインストール
python.org からPython 3.10または3.11をダウンロードしてインストールします。
Step 2: 仮想環境の作成
python3.10 -m venv comfyui-zluda-env
comfyui-zluda-env\Scriptsctivate
Step 3: ZLUDA対応のPyTorchをインストール
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/rocm6.2
Step 4: ComfyUIの依存関係をインストール
cd ComfyUI
pip install -r requirements.txt
4. 補足・注意点
- AMD GPUでのAI利用はNVIDIAと比べてまだ対応が限定的です。ROCm/HIPのバージョンとGPUの互換性を事前に確認してください
- ZLUDAはCUDAアプリケーションをAMD GPU上で動作させる互換レイヤーですが、すべてのCUDA機能がサポートされているわけではありません
- Pythonバージョンの互換性は
pip install torch実行前にpip index versions torchで確認できます
5.
👉 【RunPod】1時間数十円から使える高性能クラウドGPU
参考元
- 本記事は以下のディスカッションを要約・再構成したものです。
- Source: ComfyUI with ZLUDA for AMD GPUs on Windows10 · Issue #10838 · ComfyUI
🔧 AI開発におすすめのGPU・パーツ
本記事の手順を快適に進めるための推奨スペック:
- GPU: NVIDIA RTX 4070 Ti Super(AI開発コスパ最強)
- メモリ: DDR5 64GB(LLM推論に必須)
- SSD: NVMe SSD 2TB(大規模モデル保存用)
⚡ GPU環境をすぐに使いたいなら
ハードウェアの購入・セットアップなしで、すぐにGPU環境を使えるクラウドサービスがおすすめです。
- RunPod — RTX 4090/A100/H100を即座に利用可能
- Vast.ai — 最安のGPUクラウド、オークション方式で低コスト
- RTX 5090をAmazonで見る — 自宅GPU環境を構築するなら
🔧 AI開発におすすめのGPU・パーツ
本記事の手順を快適に進めるための推奨スペック:
- GPU: NVIDIA RTX 4070 Ti Super(AI開発コスパ最強)
- メモリ: DDR5 64GB(LLM推論に必須)
- SSD: NVMe SSD 2TB(大規模モデル保存用)
⚡ GPU環境をすぐに使いたいなら
ハードウェアの購入・セットアップなしで、すぐにGPU環境を使えるクラウドサービスがおすすめです。
- RunPod — RTX 4090/A100/H100を即座に利用可能
- Vast.ai — 最安のGPUクラウド、オークション方式で低コスト
- RTX 5090をAmazonで見る — 自宅GPU環境を構築するなら