冒頭:どんな問題が発生したか
oobaboogaのtext-generation-webuiでLLMモデルを読み込もうとした際、多くのユーザーが,突然の起動不能に陥る問題に遭遇しています。特にWindows環境において、モデルを選択してから読み込み процес中进行中にアプリケーションがクラッシュ、「Error loading the model with llama.cpp: Server process terminated unexpectedly with exit code: 1」というエラーメッセージが表示されるケースが多発しています。
具体的な環境例として、NVIDIA GeForce RTX 2060(compute capability 7.5)を使用している場合、ログには「ggml_cuda_init: found 1 CUDA devices」「error: invalid argument」といったメッセージが表示され、GPU認識はされているものの、CUDAの初期化段階で失敗していることがわかります。
結論:解決策を端的に
本エラーの主な解決策は、(1)gpu_layersを0に設定してCPUのみで動作させる、(2)異なるローダー(ExLlamaやAutoGPTQ)に切り替える、(3)丸ごと再インストールするの3つのアプローチがあります。環境とGPUの互換性に応じて選択してください。
具体的な手順:ステップバイステップ
方法1:gpu_layersを0に設定する(CPU推論)
最も簡単な応急措置として、GPUを使用せずCPUだけで推論を行います。
# 設定画面(Settings)で以下の値を変更
gpu_layers = 0
または、起動パラメータとして以下を追加してください:
--n-gpu-layers 0
この設定により、CUDA関連のエラーを回避できますが、推論速度は大幅に低下ます。
方法2:異なるローダーに切り替える
モデルの形式やGPUに応じて、ローダーを変更することで解決できる場合があります。
- ExLlama:GPTQ量子化モデル向け
- AutoGPTQ:自動選択式、導入が容易
- llama.cpp:GGUF形式モデル向け
操作手順:
- WebUIの「Model」タブを開く
- 「Loader」ドロップダウンから別のローダーを選択
- モデルを再読み込み
方法3: свежая再インストール(最も確実)
根本的な解決として、環境をクリーンな状態に再構築します。
# 1. モデルのバックアップ
# "models"フォルダの内容を別の場所にコピー
# 2. 既存の一時ファイルを削除
# "text-generation-webui"フォルダを削除
# 3. installer_filesは残して再インストール
# "installer_files"フォルダは保持し、
# クリーンな状態でstart_windows.batを実行
# 4. モデルを元のフォルダに戻す
この方法は時間がかかりますが、多くの場合で問題が解決します。特に、長期間使用していたりアップデートを繰り返したりした環境では効果的です。
方法4:モデル終了時の正しい手順
単にウィンドウを閉じるのではなく、必ずモデルをアンロードしてから終了することが重要です。
# WebUI上で
# 1. "Unload"ボタンをクリック
# 2. その後、WebUIを正常に終了
これにより、次回起動時の問題を予防できます。
補足・注意点
GPU互換性の確認
RTX 2060のような古いGPUでは、CUDA計算能力(compute capability)の制約から、最新のllama.cppでサポートされていない場合があります。特にVRAM容量が6GB以下のGPUでは、量化モデル(Q4_K_Lなど)を使用する際に問題が発生しやすいです。
バージョン依存の問題
oobaboogaは頻繁にアップデートされるため、数ヶ月前の情報が 現在では適用できない場合があります。Issue trackerやRedditで最新の報告を確認することをお勧めします。
Windows環境での特有の問題
Windows環境では、Mac/Linuxと比較してCUDA関連のエラーが発生しやすい傾向があります。Linux環境への移行も一つの解決策となります。
ログの確認方法
詳細なエラーログは、起動時に表示されるコンソールウィンドウ、または”logs”フォルダで確認できます。問題を報告する際には、このログ信息を添えると解決策を得やすくなります。
参考元
- r/Oobabooga on Reddit: Error when loading any model
- Error loading any model on recently updated oobabooga · Issue #7219
- [Error]: Can’t load model · Issue #2662
- r/Oobabooga on Reddit: Won’t load webui or any models
- Failed to Load Model · Discussion #4297