【Ollama】Windows版で「exit status 2」エラーが出てモデルが起動しない問題の解決法

この記事では、Windows環境のOllamaでモデル実行時に「llama runner process has terminated: exit status 2」エラーが発生する問題について、海外コミュニティでの解決策を要約して解説します。

1. どんな問題(エラー)が発生したか?

  • 発生した環境やツール: Ollama 0.12.x、Windows 10/11
  • エラーメッセージ: Error: 500 Internal Server Error: llama runner process has terminated: exit status 2
  • 症状: ollama runコマンド実行直後にプロセスが異常終了し、モデルが応答しない。ログに「entering low vram mode」と表示されることがある

2. 結論(解決策)

NVIDIAドライバーの更新、CUDAツールキットとOllamaバージョンの互換性確認、およびGPUメモリ設定の見直しで解決できるケースがほとんどです。

3. 具体的な手順

  1. NVIDIAドライバーを最新版に更新
    NVIDIA公式サイトから最新ドライバーをダウンロードしてインストールします。
  2. Ollamaを最新版に更新
    Ollama公式から最新インストーラをダウンロードして上書きインストールします。
  3. GPUが正しく認識されているか確認
    nvidia-smi

    「CUDA Version」が12.0以上であることを確認してください。

  4. モデルを再ダウンロード
    ollama rm llama3:8b
    ollama pull llama3:8b
  5. CPU専用モードで切り分け
    set OLLAMA_NO_GPU=1
    ollama run llama3:8b

    CPUモードで動作すればGPU/ドライバー関連の問題と特定できます。

4. 補足・注意点

VM(仮想マシン)内でGPUパススルーを使用している場合、ホスト側のドライバーとゲスト側のCUDAバージョンが一致していない可能性があります。また、ウイルス対策ソフトがOllamaのプロセスをブロックしているケースも報告されています。一時的に無効化して確認してみてください。


5.
👉 【RunPod】1時間数十円から使える高性能クラウドGPU

参考元

本記事は海外コミュニティの複数のディスカッションを要約・再構成したものです。

Source: Ollama GitHub Issues

💡 この問題を根本的に解決するには

ローカル環境のGPUトラブルが頻発する場合、ハードウェアの見直しも検討してみてください:

💡 この問題を根本的に解決するには

ローカル環境でGPUトラブルが頻発する場合、クラウドGPUサービスの利用も検討してみてください。環境構築の手間なく、すぐにAI開発を始められます。

  • RunPod — RTX 4090が$0.44/h〜、ワンクリックでJupyter環境が起動
  • Vast.ai — コミュニティGPUマーケットプレイス、最安値でGPUレンタル
この記事は役に立ちましたか?