RTX 5090/5080 (Blackwell) でAI開発を始める前に知っておくべきこと
NVIDIAの次世代GPUアーキテクチャ「Blackwell」を採用したRTX 5090およびRTX 5080は、AI開発者にとって大きな性能向上が期待されています。しかし、新しいアーキテクチャへの移行には、従来のRTX 40シリーズ(Ada Lovelace)や30シリーズ(Ampere)とは異なる環境構築の注意点が存在します。特に、CUDA Toolkitやドライバーのバージョン互換性、PyTorchなどの主要なAIフレームワークとの連携において、事前の準備が不可欠です。本記事では、Blackwell GPUでスムーズにAI開発を開始するための具体的な手順とトラブルシューティング方法を解説します。
結論:Blackwell GPU環境構築の成功ポイント
RTX 5090/5080で安定したAI開発環境を構築するための要点は以下の3点です。
- ドライバーは必ずNVIDIA公式サイトから最新版を手動インストール:OSの自動更新や���ィストリビューションのパッケージは古い場合が多いため。
- CUDA Toolkit 12.8以降の使用が必須:Blackwellアーキテクチャの正式サポートはCUDA 12.8からです。古いCUDAバージョンでは動作しない、または性能が大幅に低下する可能性があります。
- PyTorchなどフレームワークのバージョン確認を徹底:CUDA 12.8/12.9に対応したビルドを選択する必要があります。
具体的な環境構築手順
ステップ1: NVIDIAドライバーのインストール(Windows/Linux共通)
OS標準のアップデート機能(Windows UpdateやUbuntuのubuntu-drivers)は、最新のBlackwell GPU用ドライバーをすぐには提供しないことが確認されています。以下の手順でNVIDIA公式サイトから直接入手してください。
- NVIDIAドライバーダウンロードページ (https://www.nvidia.com/Download/index.aspx) にアクセス。
- 製品タイプ、シリーズ、オペレーティングシステムを選択し、「検索」をクリック。
- 表示された最新のドライバー(例:R560以降)をダウンロードして実行。
Linux (Ubuntu) ユーザー向け追加手順:
ターミナルで以下のコマンドを実行し、既存の古いドライバーを削除してから新しいドライバーをインストールすることを推奨します。
sudo apt purge nvidia-*
sudo apt autoremove
# ダウンロードした.runファイルを実行可能にしてインストール
chmod +x NVIDIA-Linux-x86_64-XXX.XX.run
sudo ./NVIDIA-Linux-x86_64-XXX.XX.run
ステップ2: CUDA Toolkit 12.8/12.9のインストール
Blackwellアーキテクチャの正式サポートはCUDA 12.8から開始されています。CUDAのインストールは、NVIDIA開発者サイトのアーカイブから行います。
- NVIDIA CUDA Toolkit アーカイブ (https://developer.nvidia.com/cuda-toolkit-archive) にアクセス。
- 「CUDA Toolkit 12.8.0」またはそれ以降のバージョンを選択。
- 自分のOSに合わせたインストーラーをダウンロードし、指示に従ってインストール。
インストール後、ターミナル(コマンドプロンプト)で以下のコマンドを実行し、バージョンを確認します。
nvcc --version
出力に「release 12.8」またはそれ以降のバージョンが表示されれば成功です。
ステップ3: PyTorchのインストール(CUDA 12.8/12.9対応版)
PyTorch公式サイトのインストールコマンド生成ツールを使用する際は、必ず「CUDA 12.8」または「CUDA 12.9」を選択してください。以下はCUDA 12.8用のインストールコマンド例です(2025年1月時点)。
# pipを使用する場合
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128
# condaを使用する場合
conda install pytorch torchvision torchaudio pytorch-cuda=12.8 -c pytorch -c nvidia
インストール後、Pythonインタラクティブシェルで以下のコードを実行し、GPUが正しく認識され、CUDAバージョンが12.8以上であることを確認します。
import torch
print(torch.__version__)
print(torch.cuda.is_available())
print(torch.cuda.get_device_name(0))
print(torch.version.cuda)
よくあるトラブルと対処法
問題1: 「CUDA error: no kernel image is available for execution on the device」などのエラー
原因: インストールしたPyTorchやxFormersなどのライブラリが、古いCUDAバージョン用にビルドされている、またはBlackwellアーキテクチャ用にコンパイルされていない。
解決策:
- PyTorchを前述のCUDA 12.8/12.9用コマンドで再インストール。
- xFormersなどの拡張ライブラリは、ソースからBlackwell用にコンパイルする必要がある場合があります。開発元のGitHubリポジトリで最新のインストール手順を確認してください。
- ComfyUIなどのアプリケーションで特定のカスタムノードが動かない場合、そのノードの開発者がBlackwell対応アップデートをリリースするのを待つ必要があります。公式ディスカッション(例:Redditのr/comfyui)で互換性情報を確認しましょう。
問題2: ドライバーをインストールしたのにGPUが認識されない(Linux)
原因: カーネルモジュールのロードに失敗している、またはSecure Bootが有効になっている。
解決策:
# ドライバーがロードされているか確認
lsmod | grep nvidia
# ロードされていない場合は手動でロードを試みる
sudo modprobe nvidia
# 永続化のた���、initramfsを更新
sudo update-initramfs -u
# Secure Bootが有効な場合は、ドライバー署名を行うか、BIOS/UEFI設定で一時的に無効化する(セキュリティリスクに注意)。
問題3: RTX 4090など旧GPUからの環境移行時の競合
原因: システムに複数のCUDAバージョンや古いドライバーが残っている。
解決策: クリーンな状態からインストールすることを強く推奨します。Windowsの場合はDDU(Display Driver Uninstaller)ツール、Linuxの場合は前述のapt purgeコマンドを使用して、NVIDIA関連ソフトウェアを完全にアンインストールしてから、本ガイドの手順に従って再インストールしてください。
参考元
- Compatibility of older CUDA versions with RTX 5090 (Blackwell) – NVIDIA Developer Forums: https://forums.developer.nvidia.com/t/compatibility-of-older-cuda-versions-with-rtx-5090-blackwell/350503
- Fix Blackwell GPU CUDA Errors RTX 5090 5080 2025 – Apatero Blog: https://apatero.com/blog/blackwell-gpu-cuda-errors-fix-troubleshooting-guide-2025
- RTX 5090 5080 Blackwell GPUs for AI Generation 2025 – Apatero Blog: https://apatero.com/blog/rtx-5090-5080-blackwell-ai-image-video-generation-guide-2025
- Install NVIDIA® Drivers and CUDA® for RTX® 50 series – Leadergpu: https://www.leadergpu.com/articles/616-install-nvidia-drivers-and-cuda-for-rtx-50-series
- What PyTorch and CUDA versions have you successfully used with RTX 5090 and WAN i2v? – Reddit r/comfyui: https://www.reddit.com/r/comfyui/comments/1mhs4n2/what_pytorch_and_cuda_versions_have_you/
🔧 AI開発におすすめのGPU・パーツ
本記事の手順を快適に進めるための推奨スペック:
- GPU: NVIDIA RTX 4070 Ti Super(AI開発コスパ最強)
- メモリ: DDR5 64GB(LLM推論に必須)
- SSD: NVMe SSD 2TB(大規模モデル保存用)
⚡ GPU環境をすぐに使いたいなら
ハードウェアの購入・セットアップなしで、すぐにGPU環境を使えるクラウドサービスがおすすめです。
- RunPod — RTX 4090/A100/H100を即座に利用可能
- Vast.ai — 最安のGPUクラウド、オークション方式で低コスト
- RTX 5090をAmazonで見る — 自宅GPU環境を構築するなら