この記事では、llama.cppをソースからビルドする際に発生するコンパイルエラーについて、海外コミュニティでの解決策を要約して解説します。
1. どんな問題(エラー)が発生したか?
- 発生した環境やツール: llama.cpp(GitHub版)、Linux / Windows / macOS
- エラーメッセージ:
CMake Error、make: *** [Makefile] Error 2、nvcc fatal: Unsupported gpu architecture - 症状:
cmake -B buildまたはmakeコマンド実行時にビルドが途中で失敗する
2. 結論(解決策)
ビルドに必要な依存パッケージ(CMake 3.14以上、C++17対応コンパイラ、CUDA Toolkit)を正しくインストールし、GPUアーキテクチャを明示的に指定してビルドすることで解決できます。
3. 具体的な手順
- 依存パッケージのインストール(Ubuntu/Debian)
sudo apt update sudo apt install -y build-essential cmake git - CUDAサポート付きでビルド
git clone https://github.com/ggerganov/llama.cpp cd llama.cpp cmake -B build -DGGML_CUDA=ON cmake --build build --config Release -j$(nproc) - GPUアーキテクチャ指定が必要な場合
RTX 30シリーズは86、RTX 40シリーズは89を指定します。cmake -B build -DGGML_CUDA=ON -DCMAKE_CUDA_ARCHITECTURES=89 - ビルド成功の確認
./build/bin/llama-cli --version
4. 補足・注意点
Windowsでビルドする場合はVisual Studio 2019以降のC++ビルドツールが必要です。Developer Command Promptから実行してください。macOSではMetal対応ビルド(-DGGML_METAL=ON)が推奨されます。また、CUDAバージョンとNVIDIAドライバーの互換性も事前に確認しておくと安心です。
5.
👉 【RunPod】1時間数十円から使える高性能クラウドGPU
参考元
本記事は海外コミュニティの複数のディスカッションを要約・再構成したものです。
Source: llama.cpp GitHub Issues
💡 この問題を根本的に解決するには
ローカル環境のGPUトラブルが頻発する場合、ハードウェアの見直しも検討してみてください:
- VRAM不足なら → RTX 4070 Ti Super(16GB VRAM)
- メモリ不足なら → DDR5 64GBメモリ
- AI開発を体系的に学ぶなら → AI・機械学習の実践書籍