アフィリエイト広告を利用しています

【実践レポート】落合陽一さんの vibe-local を MacBook Pro M4 Pro に入れてみた。ローカルAIコーディングが無料で動きます

ローカルで動くAIコーディング環境、気になりませんか?

僕は気になります。めっちゃ気になっています。

Claude Code や Cursor は便利ですが、月額料金がかかりますし。

そもそもコードをクラウドに送るのがちょっと……という場面もありますよね。

落合陽一さんが公開した vibe-local を使えば、ネットワーク不要・完全無料・オフラインで動く AIコーディングエージェントが手に入る?となり、早速インストールしました。

しかもインストールはコマンド1行。

MacBook Pro M4 Pro(メモリ24GB)で実際に動かしてみたので、セットアップの様子をスクリーンショット付きでお伝えします。

vibe-local ってなに?

vibe-local は、落合陽一さんのチームが公開したオープンソースのAIコーディングエージェントです。

特徴をざっくりまとめると、こんな感じ。

  • 完全ローカル — コードもプロンプトも外部に送信しない
  • 完全無料 — クラウドAPIの課金なし
  • オフラインOK — インストール後はネットワーク不要
  • ワンライナーインストール — curl 1行で全部入る
  • Ollama + qwen3 — ローカルLLMを自動でセットアップ

Claude Code に似たインターフェースで、ファイルの読み書き、Bash実行、Git管理、ウェブ検索まで16個のツールが使えます。

動作環境:MacBook Pro M4 Pro(メモリ24GB)

今回インストールした環境です。

  • マシン: MacBook Pro M4 Pro
  • メモリ: 24GB
  • OS: macOS

vibe-local はメモリ搭載量に応じて最適なモデルを自動選択してくれます。

メモリメインモデルサイドカー
96GB以上gpt-oss:120bqwen3-coder:30b
32GB以上qwen3-coder:30bqwen3:8b
16GB〜24GBqwen3:8bqwen3:1.7b
8GBqwen3:1.7bなし

24GBの場合は qwen3:8b がメインモデル、qwen3:1.7b がサイドカー(軽量タスク用)になります。

インストール手順:コマンド1行で完了

ターミナルで1行実行するだけ

curl -fsSL https://raw.githubusercontent.com/ochyai/vibe-local/main/install.sh | bash

これだけです。あっ、ほんまにこれだけでした。かんたんです。

vibe-local インストール開始画面

実行すると、VIBE LOCAL のアスキーアートがドーンと表示されて、「ネットワーク不要 • 完全無料 • ローカルAIコーディング」のメッセージが出ます。

かっこいい。

インストールの進行を追ってみる

STEP 1/7: システムスキャン

まず環境を自動検出します。

  • OS: Darwin(macOS)
  • Arch: arm64
  • Apple Silicon Mac 検出 →「最適な環境です」

STEP 2/7: メモリ分析

搭載メモリを確認して、最適なモデルを自動選択。

  • 搭載メモリ:24GB
  • 推奨モデル:qwen3:8b(8GB、高性能コーディング)
  • サイドカー:qwen3:1.7b(1.1GB、fast helper)
システムスキャンとメモリ分析

STEP 3/7: パッケージインストール

必要なツールを自動でインストール・確認してくれます。

  • Homebrew → インストール済み
  • Ollama → インストール済み(version 0.17.6)
  • Node.js → インストール済み(v25.1.0)
  • Claude Code CLI → インストール済み(optional)
  • Python3 → インストール済み(Python 3.14.2)

すでに入っているものはスキップしてくれるので、既存の環境を壊す心配がありません。ほっ。

STEP 4/7: AIモデルダウンロード

ここが一番時間がかかるところです。qwen3:8b のモデルをダウンロードします。

AIモデルダウンロード中

モデルサイズは 約5.2GB。うちの環境では数分〜十数分かかりました。ここだけはネットワーク接続が必要です。一度ダウンロードしたら、以降はオフラインで動きます。

起動してみる

インストールが終わったら、プロジェクトフォルダに移動して vibe-local を実行します。

cd your-project
vibe-local

パーミッション確認

初回起動時にパーミッションの確認が出ます。

パーミッション確認画面
  • [y] 自動許可モード — AIがコマンドを自動実行(確認なし)
  • [N] 通常モード — 毎回確認してから実行

ローカルLLMはクラウドのAIより精度が低いため、「意図しない操作が実行される可能性があります」と警告が出ます。

なので、 通常モード [N] で様子を見ながら使っています。

起動完了

vibe-local 起動画面

起動すると、こんな情報が表示されます。

  • Model: qwen3:8b [Tier A]
  • Sidecar: qwen3:1.7b [Tier A]
  • Mode: CONFIRM
  • Engine: Ollama (http://localhost:11434)
  • RAM: 24GB(17,070 tokens)
  • CWD: /Users/nobuhito

Claude Code に似たインターフェースで、プロンプトを入力するとAIがコードを書いてくれます。

使ってみた感想

よかったところ

インストールの簡単さが異常。 curl 1行で Ollama のインストールからモデルのダウンロードまで全部やってくれます。環境構築で詰まるストレスがゼロ。

オフラインで動く安心感。 機密性の高いプロジェクトや、飛行機の中でも使えます。コードがクラウドに送信されないのは大きい。

費用がゼロ。 Claude Code の月額や API 課金を気にせず、好きなだけ使えます。

気をつけるところ

ローカルLLMなので、Claude や GPT-4 と比べると精度は落ちます。 qwen3:8b は優秀ですが、複雑なリファクタリングや大規模なコード生成では差を感じる場面があります。

メモリ24GBだと、大きなプロジェクトでは少し厳しい場面も。 モデルがメモリを使うので、他のアプリと同時に使うときは注意が必要です。

自動許可モードは慎重に。 ローカルLLMの精度を考えると、通常モードで確認しながら使うのが安全です。

メモリ別のおすすめ

メモリ体感
8GBqwen3:1.7b のみ。簡単なタスクなら使える
16GB〜24GBqwen3:8b で実用レベル。ふだん使いに十分
32GB以上qwen3-coder:30b が使えて快適
96GB以上gpt-oss:120b でクラウドAIに近い体験

24GBあれば日常のコーディング支援には十分使える?のか?それは、これから様子を見ています。

まずは動きました。という感じです。

まとめ

落合陽一さんの vibe-local、MacBook Pro M4 Pro(24GB)で問題なく動きました。

  • インストールは curl 1行 — 環境構築のストレスゼロ
  • 完全無料・オフライン — API 課金なし、ネットワーク不要
  • 24GBなら qwen3:8b が自動選択 — 実用レベルで動く
  • Claude Code ライクなUI — 違和感なく使い始められる
  • 精度はクラウドAIには及ばない — でもローカルで動く価値は大きい

Claude Code と使い分けるのがいいかなと思います。機密プロジェクトやオフライン環境では vibe-local、精度が求められる作業では Claude Code、という感じで。

お試しください。

vibe-local(GitHub)

この記事を書いた人

大東 信仁

カンパチが好きです。

プロフィールはこちら

10月14日開催 参加者募集中
(画像をタップ→詳細へ)

ミッションナビゲート モニター
(画像をタップ→詳細へ)

広告