AI・機械学習 2026.01.23

Ollamaに画像生成機能が登場!でもメモリ18GBでは動かなかった【実体験レポート】

約14分で読めます

Ollamaについに画像生成機能が追加!Z-Image TurboとFLUX.2 Kleinを実際に試してみたところ、メモリ18GBでは動作しませんでした。モデルサイズ5.7GBでも推論時には21GB必要という重要な事実が判明。実体験を元に推奨環境や代替案を解説します。

Ollamaに画像生成機能が登場!でもメモリ18GBでは動かなかった【実体験レポート】

2026年1月、ローカルAIプラットフォーム「Ollama」についに画像生成機能が追加されました。

これまでOllamaは主にテキスト生成(LLM)や画像認識(Vision)に使われていましたが、今回「Z-Image Turbo」と「FLUX.2 Klein」という2つの画像生成モデルが公開されました。しかも商用利用可能なモデルも含まれています。

しかし、実際に試してみたところ、メモリ18GBのMacでは動作しませんでした。

この記事では、Ollamaの画像生成機能を実際に試した実体験を元に、何が問題だったのか、どんな環境なら使えるのかを詳しく解説します。

Ollamaの画像生成とは?

従来、Ollamaで画像を扱う場合は「Llama 3.2 Vision」などの画像認識(Vision)モデルを使って、画像の内容を理解・説明することができました。

しかし今回追加されたのは、テキストから画像を生成する機能です。つまり、Stable DiffusionやMidjourneyのようなことがローカル環境でできるようになったのです。

参考:Ollamaで画像生成は可能?Llama 3.2 Visionの使い方とローカルAI画像環境の構築完全ガイド - SAITEKI

注意点

画像生成モデルは現在macOSでのみ動作します。Windows/Linux環境では使えません。

出典: Ollama公式 - FLUX.2 Klein

新登場の2つの画像生成モデル

1. Z-Image Turbo(アリババ製)

基本仕様:

項目 内容
開発元 Alibaba Tongyi Lab
パラメータ数 6B(60億)
モデルサイズ 13GB(fp8版)/ 33GB(bf16版)
対応言語 中国語・英語
商用利用 可能(Apache 2.0ライセンス)
特徴 フォトリアリスティックな画像生成
プラットフォーム macOSのみ

得意分野:

  • 高品質な写真のような画像
  • ポートレート、風景
  • 製品写真
  • 中国語・英語のテキスト描画

使用方法:

ollama run x/z-image-turbo "a cat holding a sign that says hello world"

出典: Ollama - Z-Image Turbo

2. FLUX.2 Klein(Black Forest Labs製)

基本仕様:

項目 4B版 9B版
開発元 Black Forest Labs Black Forest Labs
パラメータ数 4B(40億) 9B(90億)
モデルサイズ 5.7GB 12GB
商用利用 可能(Apache 2.0) 不可(非商用ライセンス)
プラットフォーム macOSのみ macOSのみ

得意分野:

  • 読みやすいテキスト描画(他のモデルより優秀)
  • UI/インターフェースのモックアップ
  • 製品写真
  • 建築・インテリア画像

使用方法:

# 4B版(最軽量・商用可)
ollama run x/flux2-klein "a cat holding a sign that says hello world"
ollama run x/flux2-klein:4b "a cat holding a sign that says hello world"

# 9B版(高品質・非商用)
ollama run x/flux2-klein:9b "a cat holding a sign that says hello world"

# 量子化版(fp8)
ollama run x/flux2-klein:4b-fp8 "a cat holding a sign that says hello world"

量子化版について:

  • fp4: 最軽量(精度低)
  • fp8: バランス型
  • bf16: 最高品質(フル精度)

出典: Ollama - FLUX.2 Klein

実際に試してみた結果

期待に胸を膨らませて、実際にOllamaの画像生成を試してみました。

実験環境

  • Mac: メモリ18GB搭載(M1 / M2世代)
  • OS: macOS(画像生成はmacOS専用)
  • 事前準備: Dockerコンテナを停止してメモリを最大限解放

試したモデルと結果

モデル モデルサイズ 結果
Z-Image Turbo(fp8) 13GB ❌ メモリ不足
FLUX.2 Klein 4b 5.7GB ❌ メモリ不足
FLUX.2 Klein 4b-fp8 9.5GB ❌ メモリ不足

実行コマンド例:

# 最も軽量なモデルを試す
ollama run x/flux2-klein:4b "東京の綺麗な風景"

エラーメッセージ

すべてのモデルで同じエラーが発生:

Error: 500 Internal Server Error: image runner failed: 
Error: insufficient memory for image generation: need 21 GB, have 17 GB
  • 必要メモリ:21GB
  • 利用可能メモリ:17GB(システムで1GB使用中)

重要な発見:モデルサイズ ≠ 実行時メモリ

ここで非常に重要な事実が判明しました。

モデルファイルのサイズと、画像生成時に必要なメモリは全く別物です。

項目 サイズ
FLUX.2 Klein 4b(モデルファイル) 5.7GB
Z-Image Turbo(モデルファイル) 13GB
画像生成時に必要なメモリ 21GB以上

最も軽量な5.7GBのモデルでも、実際に画像を生成する際には21GBのメモリが必要でした。

モデルをダウンロードできても、動作するとは限りません。

モデルファイルサイズが小さくても、推論時(画像生成時)には大量の作業用メモリが必要です。

推奨環境

実験結果を踏まえた推奨環境:

メモリ容量 動作状況 備考
16GB以下 ❌ 動作不可 システムで使用されるため実質15GB以下
18GB ❌ 動作不可 検証済み(利用可能17GB)
24GB ⚠️ ギリギリ? 未検証だが厳しい可能性
32GB以上 推奨 安定動作が期待できる
64GB以上 快適 複数モデルの同時使用も可能

推奨ハードウェア(macOS専用)

商用利用を考えるなら:

  • Mac Studio(M2 Ultra): メモリ64GB〜192GB
  • MacBook Pro(M4 Max): メモリ48GB〜128GB
  • Mac Pro: メモリ64GB〜

個人利用なら:

  • メモリ32GB以上のMacを検討

Apple SiliconのユニファイドメモリはVRAMとしても使える

通常のPCではGPU専用のVRAM(ビデオメモリ)が必要ですが、Apple Siliconは共有メモリなので、大容量メモリを選べば画像生成に有利です。

モデルの管理と削除方法

使えないモデルをダウンロードしてしまった場合、数十GBのディスク容量を圧迫するので削除しましょう。

インストール済みモデルの確認

ollama list

出力例:

NAME                    ID              SIZE      
x/flux2-klein:4b-fp8    e0496033b854    9.5 GB       
x/flux2-klein:4b        8c7f37810489    5.7 GB       
x/z-image-turbo:latest  1053737ea587    13 GB
deepseek-r1:8b          6995872bfe4c    5.2 GB

モデルの削除

# 単一モデルを削除
ollama rm x/z-image-turbo

# 特定バージョンを削除
ollama rm x/flux2-klein:4b-fp8

# 複数まとめて削除
ollama rm x/z-image-turbo && ollama rm x/flux2-klein:4b

実例: 筆者の環境では、使えなかった画像生成モデル2つを削除したところ、約18GBのディスク容量を節約できました。

代替案:メモリが足りない場合

メモリ不足でOllama画像生成が使えない場合の選択肢を紹介します。

1. クラウドサービスを利用

サービス 特徴 料金
DALL-E 3 ChatGPT Plusで利用可能 $20/月
Midjourney 高品質、コミュニティ活発 $10〜$60/月
Leonardo.ai 無料枠あり 無料〜
Stable Diffusion Online 無料で試せる 無料〜

2. Stable Diffusion Web UIをローカルで使う

Ollamaより軽量な設定で動作可能:

  • AUTOMATIC1111: 最も人気
  • ComfyUI: ノードベースの高度なワークフロー

これらはNVIDIA GPUがあれば、より少ないメモリで動作します(8GB〜16GB程度)。

3. ハードウェアをアップグレード

長期的な投資として:

  • メモリ32GB以上のMacへのアップグレード
  • Mac Studio(M2 Ultra)やMacBook Pro(M4 Max)を検討

FLUX.2 Kleinの活用例(動く環境なら)

もしメモリ32GB以上のMacを持っている場合、FLUX.2 Kleinはこんな用途に使えます:

UI/UXモックアップ生成

ollama run x/flux2-klein:4b "Mobile banking app interface showing account balance \"$12,847.32\" with transaction history, minimal iOS design, light mode"

製品写真生成

ollama run x/flux2-klein:4b "Matte black coffee tumbler on wooden desk, morning sunlight casting long shadows, steam rising, commercial product shot"

テキスト入り画像

FLUX.2 Kleinの最大の強みは読みやすいテキストを描画できることです:

ollama run x/flux2-klein:4b "A neon sign reading \"OPEN 24 HOURS\" in a rainy city alley at night, reflections on wet pavement"

従来の画像生成AIでは文字が歪んでしまうことが多かったのですが、FLUX.2 Kleinならクリアなテキストを生成できます。

まとめ

実験結果

✅ 成功したこと:

  • モデルのダウンロード
  • Ollamaの最新機能を確認
  • 公式ドキュメントの検証

❌ 失敗したこと:

  • メモリ18GBでの画像生成
  • 試した3つのモデルすべてで同じエラー

重要なポイント

こんな人におすすめ

✅ Ollama画像生成に向いている人:

  • メモリ32GB以上のMacを持っている
  • ローカル環境で画像生成したい
  • 商用利用可能なモデルを探している
  • プライバシーを重視する

❌ 別の選択肢を検討すべき人:

  • メモリ24GB以下のMac
  • Windows/Linux環境
  • すぐに画像生成を試したい
  • 初期投資を抑えたい

今後の展望

Ollamaの画像生成機能は、ハードウェア要件が高いのが現実です。

しかし、ローカル環境でプライバシーを守りながら高品質な画像を生成できる可能性は非常に魅力的です。

今後、より軽量なモデルや最適化が進めば、一般的なMacでも使えるようになるかもしれません。


もしメモリが足りない場合は:

  • クラウドサービス(DALL-E 3、Midjourneyなど)
  • Stable Diffusion Web UI(AUTOMATIC1111、ComfyUI)
  • ハードウェアアップグレードの検討

をおすすめします。

この記事が、Ollama画像生成機能を試す際の参考になれば幸いです!

無料AI相談

AIで気軽にWeb相談してみませんか?

詳しく見る

参考リンク

この記事をシェア

この記事の内容でお困りですか?

無料でご相談いただけます

Webサイトの改善、システム開発、AI導入など、 お気軽にご相談ください。初回相談は無料です。

無料相談してみる
AIに無料相談