この記事では、pip install llama-cpp-python実行時に発生するC++コンパイラ関連のビルドエラーについて、海外コミュニティでの解決策を要約して解説します。
1. どんな問題(エラー)が発生したか?
- 発生した環境やツール: llama-cpp-python、pip、Windows/Linux
- エラーメッセージ:
error: Microsoft Visual C++ 14.0 or greater is required、CMake Error: CMAKE_C_COMPILER not set - 症状: pipでllama-cpp-pythonをインストールしようとするとコンパイルに失敗する
2. 結論(解決策)
C++コンパイラ(WindowsならVisual Studio Build Tools、LinuxならGCC)を事前にインストールし、CUDAサポートを有効にする環境変数を設定してからインストールすることで解決します。
3. 具体的な手順
- Windowsの場合:Visual Studio Build Toolsをインストール
Visual Studio Build Toolsから「C++によるデスクトップ開発」を選択してインストールします。 - Linuxの場合:GCCとCMakeをインストール
sudo apt install -y build-essential cmake - CUDA対応版のインストール
CMAKE_ARGS="-DGGML_CUDA=on" pip install llama-cpp-python --force-reinstall --no-cache-dir - インストール確認
python -c "from llama_cpp import Llama; print('OK')"
4. 補足・注意点
Windowsでは環境変数の設定方法が異なります。PowerShellの場合は$env:CMAKE_ARGS="-DGGML_CUDA=on"を使います。また、--no-cache-dirを付けないと古いキャッシュが使われてエラーが再発する場合があります。
5.
👉 【RunPod】1時間数十円から使える高性能クラウドGPU
参考元
本記事は海外コミュニティの複数のディスカッションを要約・再構成したものです。
Source: llama-cpp-python GitHub Issues
💡 この問題を根本的に解決するには
ローカル環境のGPUトラブルが頻発する場合、ハードウェアの見直しも検討してみてください:
- VRAM不足なら → RTX 4070 Ti Super(16GB VRAM)
- メモリ不足なら → DDR5 64GBメモリ
- AI開発を体系的に学ぶなら → AI・機械学習の実践書籍