Ollama on M3 Max

**M3 Maxのポテンシャルを解き放つ。** 最強のローカルLLM環境セットアップ備忘録。

← インデックスに戻る

はじめに

M3 Maxチップは、ローカルLLM実行において最高のパフォーマンスを発揮します。標準的なM3 ProやM3と比較し、メモリ帯域幅やコア数が格段に向上しているため、**70Bクラスの超大型モデル**でも現実的な速度で動作します。

検証環境:MacBook Pro (**M3 Max**) / 36GBまたは48GB Unified Memory

01.インストール手順

  1. Ollama公式サイトからインストーラーをダウンロード。
  2. ダウンロードしたZIPファイルを解凍。
  3. Ollama.app を「アプリケーション」フォルダへ移動。
  4. アプリを起動し、ウィザードに従ってセットアップ完了。

完了後、メニューバーにOllamaアイコン(🦙)が表示されます。

02.モデルの実行

ターミナル(Terminal.app)を開き、コマンドを実行するだけ。

Meta社 最新軽量モデル (Llama 3.2) を実行
$ ollama run llama3.2

(Llama 3.2は非常に高速で動作します。続いて**llama2:70b**などの大型モデルを試すのがおすすめです。)

>>> こんにちは!
(AIの応答...) こんにちは!何かお手伝いできることはありますか?

コマンドチートシート

コマンド 説明
ollama run [モデル名] チャットを開始(未DLなら自動DL)
ollama list インストール済みモデル一覧表示
ollama rm [モデル名] モデルの削除
/bye チャットを終了する

M3 Maxチップでの使用感メモ