【Ollama】Ollama完全セットアップガイド|Windows・Mac・Linux対応

Ollamaとは

Ollamaは、AI開発・推論環境において重要なツールの一つです。本ガイドでは、Ollamaのインストールから初期設定、動作確認までの手順を詳しく解説します。初心者の方でも迷わずセットアップできるよう、OS別の手順とよくあるトラブルへの対処法も合わせて紹介します。

動作要件

セットアップを始める前に、以下の環境要件を確認してください。

  • OS: Windows 10/11、Ubuntu 20.04以降、macOS 13以降
  • Python: 3.10以上推奨
  • GPU: NVIDIA GPU(CUDA対応)推奨、Apple Silicon対応の場合あり
  • メモリ: 最低16GB RAM推奨

インストール手順

ステップ1: インストーラーのダウンロード

Ollama公式サイトからOS別のインストーラーをダウンロードします。

# Linux
curl -fsSL https://ollama.com/install.sh | sh

# macOS: 公式サイトからdmgをダウンロード
# Windows: 公式サイトからexeをダウンロード

ステップ2: 動作確認

インストール後、ターミナルでバージョンを確認します。

ollama --version
ollama list

ステップ3: モデルのダウンロードと実行

利用したいモデルをpullして実行します。

ollama pull llama3.2
ollama run llama3.2

ステップ4: APIサーバーの設定

OllamaはデフォルトでAPIサーバーが起動します。外部アクセスを許可する場合は環境変数を設定します。

# 外部アクセス許可
export OLLAMA_HOST=0.0.0.0:11434

# API確認
curl http://localhost:11434/api/tags

動作確認

インストールが完了したら、以下のコマンドで正常に動作するか確認しましょう。

よくあるトラブルと解決法

command not foundエラーが出る

PATHが通っていない可能性があります。Linuxの場合は /usr/local/bin にシンボリックリンクがあるか確認してください。

GPUが認識されない

NVIDIAドライバーとCUDA Toolkitが正しくインストールされているか確認してください。nvidia-smiコマンドで確認できます。

モデルダウンロードが途中で止まる

ネットワーク接続を確認し、プロキシ環境の場合はHTTPS_PROXY環境変数を設定してください。

参考リンク

まとめ

本ガイドではOllamaのセットアップ手順を解説しました。環境構築でつまずいた場合は、エラーメッセージを確認し、上記のトラブルシューティングを参考にしてください。

記事の内容についてご質問やフィードバックがあれば、お気軽にコメントでお知らせください。

☁️ 手軽にAI開発を始めるなら

ローカル環境構築が面倒なら、クラウドGPUで即座に開始:

  • RunPod — RTX 4090が$0.44/h〜、テンプレートからワンクリックデプロイ
  • Vast.ai — 最安値GPU マーケットプレイス、コスパ重視ならこちら

※ 上記はアフィリエイトリンクです。サイト運営のサポートになります。

🔧 おすすめの開発環境

本記事の手順を快適に進めるための推奨スペック:

🔧 快適な開発環境のために

本記事の手順をスムーズに進めるために、以下のスペックを推奨します。

この記事は役に立ちましたか?