【Ollama】Mac/Linuxで「command not found」エラーが出る場合の解決法

この記事では、OllamaをMacまたはLinuxにインストールした後、ollamaコマンドが認識されない問題について、海外コミュニティでの解決策を要約して解説します。

1. どんな問題(エラー)が発生したか?

  • 発生した環境やツール: Ollama、macOS / Linux(Ubuntu、Fedora等)
  • エラーメッセージ: ollama: command not foundbash: ollama: command not found
  • 症状: インストールスクリプト実行後にターミナルでollamaと入力しても認識されない

2. 結論(解決策)

Ollamaのバイナリがシステムのパスに含まれていないことが原因です。パスを通すか、公式インストーラを使って再インストールすることで解決します。

3. 具体的な手順

  1. Ollamaのインストール場所を確認
    which ollama
    # または
    find / -name "ollama" -type f 2>/dev/null
  2. Linuxの場合:公式スクリプトで再インストール
    curl -fsSL https://ollama.com/install.sh | sh
  3. macOSの場合:公式サイトからdmgをダウンロード
    Ollama公式ダウンロードページからインストーラを入手して実行します。
  4. 手動でパスを追加する場合
    export PATH=$PATH:/usr/local/bin
    # 永続化する場合
    echo 'export PATH=$PATH:/usr/local/bin' >> ~/.bashrc
    source ~/.bashrc

4. 補足・注意点

zshを使用している場合は~/.zshrcに追記してください。また、Linuxでsystemdサービスとして動作させる場合はsudo systemctl enable ollamaで自動起動を設定できます。


5.
👉 【RunPod】1時間数十円から使える高性能クラウドGPU

参考元

本記事は海外コミュニティの複数のディスカッションを要約・再構成したものです。

Source: Ollama GitHub Issues

💡 この問題を根本的に解決するには

ローカル環境のGPUトラブルが頻発する場合、ハードウェアの見直しも検討してみてください:

💡 この問題を根本的に解決するには

ローカル環境でGPUトラブルが頻発する場合、クラウドGPUサービスの利用も検討してみてください。環境構築の手間なく、すぐにAI開発を始められます。

  • RunPod — RTX 4090が$0.44/h〜、ワンクリックでJupyter環境が起動
  • Vast.ai — コミュニティGPUマーケットプレイス、最安値でGPUレンタル
この記事は役に立ちましたか?