テクノロジー

Ollama 0.22.1がGemma 4のツール呼び出しをAPIキーなしでノートPCで動かす

Susan Hill

Ollama 0.22.1は更新されたGemma 4レンダラーを載せており、本格的なローカルAI作業に効いてくる二つの機能、すなわち明示的な思考モードと関数呼び出し、つまりツール呼び出しに、ようやくきちんと対応した。ツール呼び出しはモデル自身に、外部関数を呼ぶ判断を任せる仕組みで、ウェブページを開いたり、データベースに問い合わせたり、計算を走らせたりした結果を、自分の推論の中に組み込み直す。思考モードはモデルの中間ステップを外に出すので、アプリケーションがそれを拾って次の動作に反映できる。どちらも大手クラウドAPIが課金してきた機能だった。どちらもいま、外部サービスを一切挟まずGemma 4に対してローカルで動く。

このニュースが、また別のモデル公開よりも重く受け止められる理由は、ハードウェアの計算が変わるからだ。GoogleがApache-2.0ライセンスで公開したGemma 4ファミリーは、E2B、E4B、26B A4B、31Bという四つのサイズを抱える。小さい派生は、内蔵GPUと十二から十六ギガバイトのRAMを積んだ最近のノートPCで動く。26B A4Bと31Bはデスクトップ用GPUを必要とするが、それでも明らかに一般消費者の領域に収まる。かつては有料のAPI契約か、四桁の自宅サーバーを要求していたのと同じ系統のアーキテクチャが、そこそこ新しいマシンを持っていれば土曜午後のインストール作業に変わる。

プログラミングをしない人にとっての実際的な意味は、エージェント型アプリケーションのまとまった一群、つまりメールを読み、返信の下書きを作り、文書を取り、フォームを埋め、会議を要約してくれる類のものが、もはやその情報を第三者のサーバーへ送る義務から解かれる、ということだ。プライバシーを気にしながら本物のエージェント自動化を求めるユーザーには、これまで二つの道しかなかった。クラウド事業者のデータ方針を信じるか、ツール呼び出しを欠いたかなり弱いモデルをローカルで走らせるかだ。その中間は穴だった。Ollama 0.22.1はGemma 4の階級に対して、その穴をふさぐ。

懐疑的に読むなら、OllamaとGemma 4はクラウド最前線の対等品ではない。ローカルに置いた31Bモデルは、複雑な推論ではAnthropicのClaudeにもOpenAIのGPT-5にも届かない。長い連鎖でのツール呼び出し精度は、小型の派生では目に見えて落ちる。マルチモーダル入力も動くが、より遅い。そして統合の重みはユーザーに残る。完成したSaaSワークフローと張り合える、磨き上げられたGemma 4プラスOllamaのエージェントアプリは、まだ誰も作っていない。ハードウェアの天井とソフトウェアの仕上がりは、いまも実在する欠落だ。

リリースは現在、macOS、Linux、Windows向けのOllama標準インストーラーから利用できる。Gemma 4の重みはOllamaのモデルライブラリのgemma4名前空間に置かれており、0.22.1のランタイム変更は、いずれのサイズについても引いてきた時点で自動的に効く。

ディスカッション

0件のコメントがあります。