【llama-cpp-python】ビルドエラー解決法|C++コンパイラ不足の対処

この記事では、pip install llama-cpp-python実行時に発生するC++コンパイラ関連のビルドエラーについて、海外コミュニティでの解決策を要約して解説します。

1. どんな問題(エラー)が発生したか?

  • 発生した環境やツール: llama-cpp-python、pip、Windows/Linux
  • エラーメッセージ: error: Microsoft Visual C++ 14.0 or greater is requiredCMake Error: CMAKE_C_COMPILER not set
  • 症状: pipでllama-cpp-pythonをインストールしようとするとコンパイルに失敗する

2. 結論(解決策)

C++コンパイラ(WindowsならVisual Studio Build Tools、LinuxならGCC)を事前にインストールし、CUDAサポートを有効にする環境変数を設定してからインストールすることで解決します。

3. 具体的な手順

  1. Windowsの場合:Visual Studio Build Toolsをインストール
    Visual Studio Build Toolsから「C++によるデスクトップ開発」を選択してインストールします。
  2. Linuxの場合:GCCとCMakeをインストール
    sudo apt install -y build-essential cmake
  3. CUDA対応版のインストール
    CMAKE_ARGS="-DGGML_CUDA=on" pip install llama-cpp-python --force-reinstall --no-cache-dir
  4. インストール確認
    python -c "from llama_cpp import Llama; print('OK')"

4. 補足・注意点

Windowsでは環境変数の設定方法が異なります。PowerShellの場合は$env:CMAKE_ARGS="-DGGML_CUDA=on"を使います。また、--no-cache-dirを付けないと古いキャッシュが使われてエラーが再発する場合があります。


5.
👉 【RunPod】1時間数十円から使える高性能クラウドGPU

参考元

本記事は海外コミュニティの複数のディスカッションを要約・再構成したものです。

Source: llama-cpp-python GitHub Issues

💡 この問題を根本的に解決するには

ローカル環境のGPUトラブルが頻発する場合、ハードウェアの見直しも検討してみてください:

💡 この問題を根本的に解決するには

ローカル環境でGPUトラブルが頻発する場合、クラウドGPUサービスの利用も検討してみてください。環境構築の手間なく、すぐにAI開発を始められます。

  • RunPod — RTX 4090が$0.44/h〜、ワンクリックでJupyter環境が起動
  • Vast.ai — コミュニティGPUマーケットプレイス、最安値でGPUレンタル
この記事は役に立ちましたか?