【llama.cpp】ビルド失敗の原因と対策完全ガイド

この記事では、llama.cppをソースからビルドする際に発生するコンパイルエラーについて、海外コミュニティでの解決策を要約して解説します。

1. どんな問題(エラー)が発生したか?

  • 発生した環境やツール: llama.cpp(GitHub版)、Linux / Windows / macOS
  • エラーメッセージ: CMake Errormake: *** [Makefile] Error 2nvcc fatal: Unsupported gpu architecture
  • 症状: cmake -B build または make コマンド実行時にビルドが途中で失敗する

2. 結論(解決策)

ビルドに必要な依存パッケージ(CMake 3.14以上、C++17対応コンパイラ、CUDA Toolkit)を正しくインストールし、GPUアーキテクチャを明示的に指定してビルドすることで解決できます。

3. 具体的な手順

  1. 依存パッケージのインストール(Ubuntu/Debian)
    sudo apt update
    sudo apt install -y build-essential cmake git
  2. CUDAサポート付きでビルド
    git clone https://github.com/ggerganov/llama.cpp
    cd llama.cpp
    cmake -B build -DGGML_CUDA=ON
    cmake --build build --config Release -j$(nproc)
  3. GPUアーキテクチャ指定が必要な場合
    RTX 30シリーズは86、RTX 40シリーズは89を指定します。

    cmake -B build -DGGML_CUDA=ON -DCMAKE_CUDA_ARCHITECTURES=89
  4. ビルド成功の確認
    ./build/bin/llama-cli --version

4. 補足・注意点

Windowsでビルドする場合はVisual Studio 2019以降のC++ビルドツールが必要です。Developer Command Promptから実行してください。macOSではMetal対応ビルド(-DGGML_METAL=ON)が推奨されます。また、CUDAバージョンとNVIDIAドライバーの互換性も事前に確認しておくと安心です。


5.
👉 【RunPod】1時間数十円から使える高性能クラウドGPU

参考元

本記事は海外コミュニティの複数のディスカッションを要約・再構成したものです。

Source: llama.cpp GitHub Issues

💡 この問題を根本的に解決するには

ローカル環境のGPUトラブルが頻発する場合、ハードウェアの見直しも検討してみてください:

💡 この問題を根本的に解決するには

ローカル環境でGPUトラブルが頻発する場合、クラウドGPUサービスの利用も検討してみてください。環境構築の手間なく、すぐにAI開発を始められます。

  • RunPod — RTX 4090が$0.44/h〜、ワンクリックでJupyter環境が起動
  • Vast.ai — コミュニティGPUマーケットプレイス、最安値でGPUレンタル
この記事は役に立ちましたか?