この記事では、ComfyUIでワークフロー実行時に発生する「RuntimeError: CUDA out of memory」エラーについて、海外コミュニティでの解決策を要約して解説します。
1. どんな問題(エラー)が発生したか?
- 発生した環境やツール: ComfyUI、NVIDIA GPU(6〜8GB VRAM)
- エラーメッセージ:
RuntimeError: CUDA out of memory. Tried to allocate XXX MiB - 症状: 画像生成のキュー実行時にVRAM不足でプロセスが停止する。特に高解像度やSDXLモデルで頻発
2. 結論(解決策)
生成解像度の調整、メモリ最適化オプションの有効化、およびタイル処理の活用でVRAM使用量を削減し、エラーを回避できます。
3. 具体的な手順
- 起動時にメモリ最適化フラグを追加
python main.py --lowvramそれでも不足する場合:
python main.py --novram - 生成解像度を下げる
SD 1.5系:512×512〜768×768が推奨
SDXL系:1024×1024が推奨(8GB VRAM未満では困難) - VAEのタイリングを有効化
ワークフローに「VAE Decode (Tiled)」ノードを使用すると、VAEデコード時のメモリ消費を大幅に削減できます。 - 不要なモデルをアンロード
ComfyUI Managerの「Unload Models」機能や、ワークフロー実行前にブラウザを再読み込みしてVRAMを解放します。
4. 補足・注意点
VRAM 6GB以下のGPUでSDXLモデルを使用する場合、--lowvramでも不足することがあります。その場合はSD 1.5系モデルへの切り替えを検討してください。ControlNetやIPAdapterなどの追加ノードもVRAMを消費するため、使用していないノードは削除するとメモリに余裕が生まれます。
5.
👉 【RunPod】1時間数十円から使える高性能クラウドGPU
参考元
本記事は海外コミュニティの複数のディスカッションを要約・再構成したものです。
Source: ComfyUI GitHub Issues
💡 この問題を根本的に解決するには
ローカル環境のGPUトラブルが頻発する場合、ハードウェアの見直しも検討してみてください:
- VRAM不足なら → RTX 4070 Ti Super(16GB VRAM)
- メモリ不足なら → DDR5 64GBメモリ
- AI開発を体系的に学ぶなら → AI・機械学習の実践書籍