【NVIDIA】RTX 5090/5080 Blackwell世代GPU AI開発環境構築ガイド

RTX 5090/5080 (Blackwell) でAI開発を始める前に知っておくべきこと

NVIDIAの次世代GPUアーキテクチャ「Blackwell」を採用したRTX 5090およびRTX 5080は、AI開発者にとって大きな性能向上が期待されています。しかし、新しいアーキテクチャへの移行には、従来のRTX 40シリーズ(Ada Lovelace)や30シリーズ(Ampere)とは異なる環境構築の注意点が存在します。特に、CUDA Toolkitやドライバーのバージョン互換性、PyTorchなどの主要なAIフレームワークとの連携において、事前の準備が不可欠です。本記事では、Blackwell GPUでスムーズにAI開発を開始するための具体的な手順とトラブルシューティング方法を解説します。

結論:Blackwell GPU環境構築の成功ポイント

RTX 5090/5080で安定したAI開発環境を構築するための要点は以下の3点です。

  • ドライバーは必ずNVIDIA公式サイトから最新版を手動インストール:OSの自動更新や���ィストリビューションのパッケージは古い場合が多いため。
  • CUDA Toolkit 12.8以降の使用が必須:Blackwellアーキテクチャの正式サポートはCUDA 12.8からです。古いCUDAバージョンでは動作しない、または性能が大幅に低下する可能性があります。
  • PyTorchなどフレームワークのバージョン確認を徹底:CUDA 12.8/12.9に対応したビルドを選択する必要があります。

具体的な環境構築手順

ステップ1: NVIDIAドライバーのインストール(Windows/Linux共通)

OS標準のアップデート機能(Windows UpdateやUbuntuのubuntu-drivers)は、最新のBlackwell GPU用ドライバーをすぐには提供しないことが確認されています。以下の手順でNVIDIA公式サイトから直接入手してください。

  1. NVIDIAドライバーダウンロードページ (https://www.nvidia.com/Download/index.aspx) にアクセス。
  2. 製品タイプ、シリーズ、オペレーティングシステムを選択し、「検索」をクリック。
  3. 表示された最新のドライバー(例:R560以降)をダウンロードして実行。

Linux (Ubuntu) ユーザー向け追加手順:
ターミナルで以下のコマンドを実行し、既存の古いドライバーを削除してから新しいドライバーをインストールすることを推奨します。

sudo apt purge nvidia-*
sudo apt autoremove
# ダウンロードした.runファイルを実行可能にしてインストール
chmod +x NVIDIA-Linux-x86_64-XXX.XX.run
sudo ./NVIDIA-Linux-x86_64-XXX.XX.run

ステップ2: CUDA Toolkit 12.8/12.9のインストール

Blackwellアーキテクチャの正式サポートはCUDA 12.8から開始されています。CUDAのインストールは、NVIDIA開発者サイトのアーカイブから行います。

  1. NVIDIA CUDA Toolkit アーカイブ (https://developer.nvidia.com/cuda-toolkit-archive) にアクセス。
  2. 「CUDA Toolkit 12.8.0」またはそれ以降のバージョンを選択。
  3. 自分のOSに合わせたインストーラーをダウンロードし、指示に従ってインストール。

インストール後、ターミナル(コマンドプロンプト)で以下のコマンドを実行し、バージョンを確認します。

nvcc --version

出力に「release 12.8」またはそれ以降のバージョンが表示されれば成功です。

ステップ3: PyTorchのインストール(CUDA 12.8/12.9対応版)

PyTorch公式サイトのインストールコマンド生成ツールを使用する際は、必ず「CUDA 12.8」または「CUDA 12.9」を選択してください。以下はCUDA 12.8用のインストールコマンド例です(2025年1月時点)。

# pipを使用する場合
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128

# condaを使用する場合
conda install pytorch torchvision torchaudio pytorch-cuda=12.8 -c pytorch -c nvidia

インストール後、Pythonインタラクティブシェルで以下のコードを実行し、GPUが正しく認識され、CUDAバージョンが12.8以上であることを確認します。

import torch
print(torch.__version__)
print(torch.cuda.is_available())
print(torch.cuda.get_device_name(0))
print(torch.version.cuda)

よくあるトラブルと対処法

問題1: 「CUDA error: no kernel image is available for execution on the device」などのエラー

原因: インストールしたPyTorchやxFormersなどのライブラリが、古いCUDAバージョン用にビルドされている、またはBlackwellアーキテクチャ用にコンパイルされていない。

解決策:

  1. PyTorchを前述のCUDA 12.8/12.9用コマンドで再インストール。
  2. xFormersなどの拡張ライブラリは、ソースからBlackwell用にコンパイルする必要がある場合があります。開発元のGitHubリポジトリで最新のインストール手順を確認してください。
  3. ComfyUIなどのアプリケーションで特定のカスタムノードが動かない場合、そのノードの開発者がBlackwell対応アップデートをリリースするのを待つ必要があります。公式ディスカッション(例:Redditのr/comfyui)で互換性情報を確認しましょう。

問題2: ドライバーをインストールしたのにGPUが認識されない(Linux)

原因: カーネルモジュールのロードに失敗している、またはSecure Bootが有効になっている。

解決策:

# ドライバーがロードされているか確認
lsmod | grep nvidia

# ロードされていない場合は手動でロードを試みる
sudo modprobe nvidia

# 永続化のた���、initramfsを更新
sudo update-initramfs -u

# Secure Bootが有効な場合は、ドライバー署名を行うか、BIOS/UEFI設定で一時的に無効化する(セキュリティリスクに注意)。

問題3: RTX 4090など旧GPUからの環境移行時の競合

原因: システムに複数のCUDAバージョンや古いドライバーが残っている。

解決策: クリーンな状態からインストールすることを強く推奨します。Windowsの場合はDDU(Display Driver Uninstaller)ツール、Linuxの場合は前述のapt purgeコマンドを使用して、NVIDIA関連ソフトウェアを完全にアンインストールしてから、本ガイドの手順に従って再インストールしてください。

参考元

🔧 AI開発におすすめのGPU・パーツ

本記事の手順を快適に進めるための推奨スペック:

⚡ GPU環境をすぐに使いたいなら

ハードウェアの購入・セットアップなしで、すぐにGPU環境を使えるクラウドサービスがおすすめです。

  • RunPod — RTX 4090/A100/H100を即座に利用可能
  • Vast.ai — 最安のGPUクラウド、オークション方式で低コスト
  • RTX 5090をAmazonで見る — 自宅GPU環境を構築するなら
この記事は役に立ちましたか?