【ComfyUI】「CUDA out of memory」でワークフローが実行できない時の解決法

この記事では、ComfyUIでワークフロー実行時に発生する「RuntimeError: CUDA out of memory」エラーについて、海外コミュニティでの解決策を要約して解説します。

1. どんな問題(エラー)が発生したか?

  • 発生した環境やツール: ComfyUI、NVIDIA GPU(6〜8GB VRAM)
  • エラーメッセージ: RuntimeError: CUDA out of memory. Tried to allocate XXX MiB
  • 症状: 画像生成のキュー実行時にVRAM不足でプロセスが停止する。特に高解像度やSDXLモデルで頻発

2. 結論(解決策)

生成解像度の調整、メモリ最適化オプションの有効化、およびタイル処理の活用でVRAM使用量を削減し、エラーを回避できます。

3. 具体的な手順

  1. 起動時にメモリ最適化フラグを追加
    python main.py --lowvram

    それでも不足する場合:

    python main.py --novram
  2. 生成解像度を下げる
    SD 1.5系:512×512〜768×768が推奨
    SDXL系:1024×1024が推奨(8GB VRAM未満では困難)
  3. VAEのタイリングを有効化
    ワークフローに「VAE Decode (Tiled)」ノードを使用すると、VAEデコード時のメモリ消費を大幅に削減できます。
  4. 不要なモデルをアンロード
    ComfyUI Managerの「Unload Models」機能や、ワークフロー実行前にブラウザを再読み込みしてVRAMを解放します。

4. 補足・注意点

VRAM 6GB以下のGPUでSDXLモデルを使用する場合、--lowvramでも不足することがあります。その場合はSD 1.5系モデルへの切り替えを検討してください。ControlNetやIPAdapterなどの追加ノードもVRAMを消費するため、使用していないノードは削除するとメモリに余裕が生まれます。


5.
👉 【RunPod】1時間数十円から使える高性能クラウドGPU

参考元

本記事は海外コミュニティの複数のディスカッションを要約・再構成したものです。

Source: ComfyUI GitHub Issues

💡 この問題を根本的に解決するには

ローカル環境のGPUトラブルが頻発する場合、ハードウェアの見直しも検討してみてください:

💡 この問題を根本的に解決するには

ローカル環境でGPUトラブルが頻発する場合、クラウドGPUサービスの利用も検討してみてください。環境構築の手間なく、すぐにAI開発を始められます。

  • RunPod — RTX 4090が$0.44/h〜、ワンクリックでJupyter環境が起動
  • Vast.ai — コミュニティGPUマーケットプレイス、最安値でGPUレンタル
この記事は役に立ちましたか?