Ollamaとは
Ollamaは、AI開発・推論環境において重要なツールの一つです。本ガイドでは、Ollamaのインストールから初期設定、動作確認までの手順を詳しく解説します。初心者の方でも迷わずセットアップできるよう、OS別の手順とよくあるトラブルへの対処法も合わせて紹介します。
動作要件
セットアップを始める前に、以下の環境要件を確認してください。
- OS: Windows 10/11、Ubuntu 20.04以降、macOS 13以降
- Python: 3.10以上推奨
- GPU: NVIDIA GPU(CUDA対応)推奨、Apple Silicon対応の場合あり
- メモリ: 最低16GB RAM推奨
インストール手順
ステップ1: インストーラーのダウンロード
Ollama公式サイトからOS別のインストーラーをダウンロードします。
# Linux
curl -fsSL https://ollama.com/install.sh | sh
# macOS: 公式サイトからdmgをダウンロード
# Windows: 公式サイトからexeをダウンロード
ステップ2: 動作確認
インストール後、ターミナルでバージョンを確認します。
ollama --version
ollama list
ステップ3: モデルのダウンロードと実行
利用したいモデルをpullして実行します。
ollama pull llama3.2
ollama run llama3.2
ステップ4: APIサーバーの設定
OllamaはデフォルトでAPIサーバーが起動します。外部アクセスを許可する場合は環境変数を設定します。
# 外部アクセス許可
export OLLAMA_HOST=0.0.0.0:11434
# API確認
curl http://localhost:11434/api/tags
動作確認
インストールが完了したら、以下のコマンドで正常に動作するか確認しましょう。
よくあるトラブルと解決法
command not foundエラーが出る
PATHが通っていない可能性があります。Linuxの場合は /usr/local/bin にシンボリックリンクがあるか確認してください。
GPUが認識されない
NVIDIAドライバーとCUDA Toolkitが正しくインストールされているか確認してください。nvidia-smiコマンドで確認できます。
モデルダウンロードが途中で止まる
ネットワーク接続を確認し、プロキシ環境の場合はHTTPS_PROXY環境変数を設定してください。
参考リンク
まとめ
本ガイドではOllamaのセットアップ手順を解説しました。環境構築でつまずいた場合は、エラーメッセージを確認し、上記のトラブルシューティングを参考にしてください。
記事の内容についてご質問やフィードバックがあれば、お気軽にコメントでお知らせください。
☁️ 手軽にAI開発を始めるなら
ローカル環境構築が面倒なら、クラウドGPUで即座に開始:
※ 上記はアフィリエイトリンクです。サイト運営のサポートになります。
🔧 おすすめの開発環境
本記事の手順を快適に進めるための推奨スペック:
- GPU: NVIDIA RTX 4070 Ti Super(コスパ最強)
- メモリ: DDR5 64GB(LLM推論に必須)
- SSD: NVMe SSD 2TB(モデル保存用)
🔧 快適な開発環境のために
本記事の手順をスムーズに進めるために、以下のスペックを推奨します。
- GPU: NVIDIA RTX 4070 Ti Super(AI開発のコスパ最強GPU)
- メモリ: DDR5 64GB(LLMのローカル推論に必須)