セキュアなAI環境を構築!ローカルLLM「Ollama」と「Open WebUI」の導入手順と社内活用

セキュアなAI環境を構築!ローカルLLM「Ollama」と「Open WebUI」の導入手順と社内活用

はじめに

近年、AI技術の発展によりLLM(大規模言語モデル)のビジネス活用が急速に進んでいます。しかし、クラウド型AIサービスを使用する際、社内データや顧客情報などの機密データを外部に送信することにセキュリティ上の懸念を抱く企業も少なくありません。そこで注目されているのが、社内のローカル環境でLLMを動かす「ローカルLLM」という選択肢です。本記事では、ローカルLLMを手軽に実行できるツール「Ollama」と、ChatGPTライクな直感的なUIを提供する「Open WebUI」を用いたプライバシー保護に優れたAI環境の導入手順と、データ解析での社内活用方法について詳しく解説します。

基礎知識・概要

Key Concept

ローカルLLMを活用することで、機密データを外部に出さずにセキュアなAI環境が構築可能です。OllamaとOpen WebUIの組み合わせにより、専門知識がなくてもスムーズに高機能な社内専用AIチャットツールを導入できます。

ローカルLLMとは、自社で用意したPCやサーバー上で動作する言語モデルを指します。外部のクラウドAPIと通信しないため、データのプライバシー保護やセキュリティの観点で非常に優れています。また、OllamaはMac、Windows、LinuxなどでローカルLLMを簡単にセットアップ・実行できるオープンソースツールです。操作の基本はコマンドラインですが、ここに「Open WebUI」を組み合わせることで、ブラウザから直感的なグラフィカルインターフェースでAIモデルにアクセスできるようになり、非エンジニアの従業員でも簡単にAIを活用できるようになります。

主要機能と詳細

Ollamaの強力なモデル管理機能

Ollamaの最大の魅力は、そのシンプルなモデル管理にあります。ollama run llama3といった直感的なコマンド一つで、MetaのLlama 3やGoogleのGemmaなど、強力なオープンソースLLMを自動的にダウンロードし、実行環境を構築してくれます。複雑なPythonの環境構築やGPUドライバーの依存関係に悩まされる時間を大幅に削減できる点が、多くのエンジニアに支持されています。

Open WebUIによるユーザビリティの向上

Open WebUIは、Ollamaなどのバックエンドとシームレスに連携するフロントエンドツールです。チャット履歴の保存、システムプロンプトのカスタマイズ、画像認識(マルチモーダル対応)など、クラウド型AIと同等の機能を無料で提供します。また、マルチユーザー機能も備えており、チームメンバーごとにアクセス権を管理できるため、セキュアな社内展開に最適な設計となっています。

実装・実践ガイド (導入手順)

ここでは、ローカル環境にOllamaとOpen WebUIを構築する具体的な手順を解説します。最も推奨されるアプローチは、Dockerを利用して環境を分離・管理する方法です。

ステップ1: Ollamaのインストール

まず、Ollama本体をインストールします。公式サイトからインストーラーをダウンロードするか、Linux/Macであれば以下のコマンドで簡単にインストールが可能です。

curl -fsSL https://ollama.com/install.sh | sh

ステップ2: モデルのダウンロードと起動

インストールが完了したら、使用したいLLMをダウンロードします。今回は汎用性が高いLlama 3を選択します。

ollama run llama3

ステップ3: Open WebUIの立ち上げ(Docker)

次に、Open WebUIをDocker経由で起動します。Ollamaがローカルホストで動いている場合、以下のコマンドを実行するだけでWebサーバーが立ち上がります。

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

ブラウザで http://localhost:3000 にアクセスしアカウントを作成すれば、セキュアなAIチャット環境の完成です。機密性の高い文書データを読み込ませて、安全なデータ解析をスタートしましょう。

よくある課題と解決策

Warning

ローカル環境のスペック不足による生成速度の低下に注意してください。

メモリ・VRAMの要件

LLMをローカルで動かす際、最もよく直面するハードルがハードウェアの要件不足です。数十億パラメータのモデルを動かすには大容量のメモリ(またはGPUのVRAM)が必要になります。応答が遅い場合は、より小さなサイズのモデルを選択するか、量子化された軽量版モデルを利用することで、一般的なPCでも快適に動作させることができます。

セキュリティ設定とアクセス制御

社内ネットワークでOpen WebUIを公開する場合は、適切なアクセス制御が必須です。Open WebUIの管理画面からユーザーの新規登録を制限したり、リバースプロキシを挟んでSSL化やIP制限をかけることで、より強固なプライバシー保護と監視体制を実現しましょう。

まとめ

本記事では、「Ollama」と「Open WebUI」を活用したセキュアなローカルLLM環境の導入フローについて解説しました。クラウドAIに依存せず、すべての処理を自社内で完結させることで、機密データを伴うデータ解析など、これまでセキュリティの懸念から踏み切れなかった領域でのAI活用が可能になります。

オープンソースLLMの性能は日進月歩で進化しており、ローカル環境でも実務に十分耐えうる品質の回答が得られるようになっています。まずは手軽な環境からテスト導入し、自社の業務フローに合わせたセキュアなAI基盤を構築してみてはいかがでしょうか。

このブログ記事はAIを利用して自動生成されました。

Flashコンテンツの再構築

Flashコンテンツの再構築は、単なる懐古趣味にとどまりません。AIを用いてレガシー資産を現代化する高度な技術実証の場となっています。かつてActionScript 2や3で記述されたロジックを、HTML5やWebAssembly、TypeScriptといった現代の環境へ移植するために、さまざまなAI技術が投入されています。

中心となるのは、LLMによるコード変換です。これは単なる文字列の置換ではなく、文脈を汲み取ったセマンティックな変換を指します。現代的な非同期処理やクラス構造への最適化を施しながら、すでに廃止されたFlash独自の描画メソッドなどを、PixiJSやCreateJSといった代替ライブラリへ自動的にマッピングしていきます。

視覚面では、GAN(敵対的生成ネットワーク)を用いたアセットの高解像度化が大きな役割を果たします。かつてのSWFファイルに含まれていた低解像度のベクターデータやビットマップデータを、4K環境でも耐えうる画質へアップスケーリングします。さらに、Ruffleなどの既存エミュレータでは再現しきれない複雑な物理演算や通信処理をAIが解析し、現代のコードで再実装することで、エミュレーションの不足を補完します。

こうした過去の知的財産を再利用することは、企業にとって大きな戦略的価値を持ちます。ゼロからリメイクするのではなく、既存のロジックや素材をAIで変換することで、工期を従来の3割から5割程度にまで短縮し、開発コストを劇的に抑えられます。これは2000年代にファンだった現在の30代から40代への訴求につながるだけでなく、軽量なWebゲームとして再リリースすることで、新規ユーザーとの接点を創出する機会にもなります。ブラウザだけでなく、モバイルアプリやクラウドゲームといったプラットフォームの垣根を越えた展開も容易になります。

実装にあたっては、ソースコードの紛失や権利関係の整理といった課題が伴います。しかし、コンパイル済みのSWFからAIが逆コンパイルを行い、難読化された変数名を文脈から推測して復元することが可能です。外部ライブラリの依存関係をスキャンしてライセンスの競合を特定したり、フレーム補完によって60FPSを実現したり、タッチパネル操作へUIを最適化したりといった対応もAIが担います。

今後は単なる復元を超え、AIが当時のゲーム性を拡張する段階へ移行していくでしょう。当時のステージ構成を学習して新しいステージを無限に生成したり、ユーザーの操作ログをリアルタイムで解析して難易度を動的に調整したりといった展開が期待されます。

Flashゲームの再構築は、AIが過去の技術的負債を現代の資産へと昇華させる象徴的な事例です。かつての資産を最新技術で甦らせる試みは、技術の継承とイノベーションを両立させる大きな一歩となります。

mac+ollama+docker+openwebuiの組み合わせ。

自分のメモ用として、記載を残しておく。
services:
  ollama-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: ollama-webui
    restart: unless-stopped
    ports:
      - "8080:8080"
    extra_hosts:
      - "host.docker.internal:host-gateway"
    volumes:
      - ./ollama-webui:/app/backend/data
    environment:
      - OLLAMA_BASE_URL=http://host.docker.internal:11434

volumes:
  ollama-webui:  
  

以前書いた記事

https://www.kixking.xyz/2026/01/macollama-openwebui-docker-composegpu.html

「Antigravity vs Copilot vs Cursor!最強のコーディングAIはどれだ?」

AIコーディングツール戦国時代の昨今、「Antigravity vs Copilot vs Cursor!最強のコーディングAIはどれだ?」という疑問を持つ開発者は多いはずです。本記事では、話題の**Google Antigravity**、王道の**GitHub Copilot**、そして新鋭の**Cursor**を徹底比較し、それぞれの特徴と最適な使い分けを解説します。

3大AIツールの基本スペック比較

まずは3つのツールの基本スペックを比較表で見てみましょう。

特徴 Antigravity GitHub Copilot Cursor
**開発元** Google DeepMind GitHub (Microsoft) / OpenAI Cursor Team
**コア概念** Agent-First IDE AI Pair Programmer AI-Integrated IDE
**コード補完** ○ (Tab) ◎ (高速) ◎ (高速)
**チャット** ◎ (Context重視)
**自律エージェント** ◎ (Mission Control) △ (Workspace) ○ (Agent Beta)
**ブラウザ操作** ◎ (Browser-in-the-Loop) × ×
**IDEベース** VS Code fork VS Code ext / VS Orign VS Code fork

Antigravityが他と決定的に異なるのは、「IDEの中に住むエージェント」という立ち位置です。CopilotやCursorが「人間が書くのを助ける」ツールであるのに対し、Antigravityは「人間に代わってタスクを実行する」パートナーを目指しています。

Antigravityの強み:Agent-Firstによる自律性

Antigravityを選ぶ最大の理由は、その圧倒的な自律性(Autonomy)にあります。

例えば「ログイン画面を作って」と指示した場合の挙動の違いを見てみましょう。 - Copilot/Cursor: コードを生成してエディタに表示します。ファイル作成やエラー修正は人間が行う必要があります。 - Antigravity: 必要なファイル(HTML/CSS/JS/Test)を全て作成し、テストを実行し、ブラウザで表示確認まで行います。

特にBrowser-in-the-Loop機能は強力で、実際にブラウザを操作してUIの崩れを確認したり、動的な挙動をテストしたりできます。また、Knowledge Baseによりプロジェクト固有のルール(「当社のデザインシステムではこのクラスを使う」など)を永続的に記憶するため、使えば使うほど「言わなくても分かってくれる」相棒に成長します。

Copilot & Cursorの強み:速度とUX

一方で、スピードと直感的な操作性ではCopilotとCursorに分があります。

GitHub Copilotは、とにかく「速い」です。ゴーストテキスト(グレーの文字)が表示されるまでのレイテンシが極めて短く、思考を止めずにコーディングを続けられます。既存のVS Code環境をそのまま使えるのも大きな利点です。

Cursorは、「体験(UX)」が洗練されています。Cmd+Kでのインライン編集や、`@Symbols`によるコンテキスト指定など、開発者が「こうしたい」と思った瞬間にAIを呼び出せるインターフェースは秀逸です。ドキュメントを読み込ませる機能(@Docs)も非常に使いやすく、最新ライブラリを使った開発では無類の強さを発揮します。

結論:あなたに最適な最強AIはこれだ!

それぞれの特徴を踏まえると、最強のAIは「目的」によって変わります。

1. Antigravityがおすすめな人 - 「実装」そのものをAIに任せたい人 - フロントエンドからバックエンドまで一気通貫で機能を作りたい人 - 新しいAgenticな開発スタイルに挑戦したい人

2. Cursorがおすすめな人 - 既存のコードをガリガリ自分で書きつつ、AIにサポートしてほしい人 - 最新のライブラリやドキュメントを頻繁に参照する人 - エディタのUXにこだわりがある人

3. GitHub Copilotがおすすめな人 - 企業のセキュリティポリシーでツールが制限されている人 - 既存のVS Code環境を変えたくない人 - とにかく補完のレスポンス速度を重視する人

個人的な推奨は、CursorまたはVS Codeをメインにしつつ、Antigravityを「重いタスクを投げるためのサブIDE」として併用するスタイルです。適材適所でツールを使い分けることこそ、現代のエンジニアに求められる「最強の」スキルかもしれません。

まとめ

結論として、これらは競合というより「補完関係」にあります。実装の高速化ならCopilot/Cursor、機能開発やタスクの丸投げならAntigravity。自分の開発スタイルに合わせて、最適なツール(または組み合わせ)を選んでみてください。

Google Antigravityは、Google DeepMindが開発した「Agent-First IDE」

Google Antigravityは、Google DeepMindが開発した「Agent-First IDE」です。本記事では「Google Antigravityとは?次世代Agent-First IDEの全貌」をテーマに、エディタ・ターミナル・ブラウザを横断して自律的にタスクを遂行するこの次世代IDEの魅力に迫ります。

Antigravityの概要とAgent-First IDEという新概念

Google Antigravityは、Google DeepMindチームが開発した次世代の統合開発環境(IDE)です。公式サイトでは「Build the new way」をキャッチコピーに掲げ、従来のAIコード補完ツールとは根本的に異なるアプローチを取っています。

最大の特徴は「Agent-First」という設計思想です。Antigravityは、AIを単なるコード補完エンジンとしてではなく、自律的に思考し、計画し、実行するエージェントの集合体として扱います。これらのエージェントは、エディタ上のコード編集だけでなく、ターミナルでのコマンド実行、さらにはブラウザの操作まで一貫して自動的に行えるのです。

ユーザーはタスクを指示するだけで、エージェントが以下を自律的に遂行します: - コードベースの分析と理解 - 実装計画(Artifact)の作成とユーザーへの提示 - 承認後の実装・テスト・検証 - ドキュメントの自動生成と更新

つまり、開発者は「何を作りたいか」を伝えるだけで、「どう作るか」の大部分をエージェントに委ねることができます。これがAgent-First IDEの革新的なポイントです。

主要機能:Mission Control・Browser-in-the-Loop・Knowledge Base

Antigravityには、他のAIツールにはない独自の機能が搭載されています。

Mission Control(Agent Manager) Mission Controlは、複数のエージェントを並行して管理する「司令塔」のような機能です。異なるワークスペースで複数のエージェントを同時に稼働させ、バックログの消化やコードベースの調査など、長時間かかるタスクをバックグラウンドで処理できます。個別のツール呼び出しではなく「Task Groups」単位で管理するため、エージェントにより高い自律性を与えられるのが特徴です。

Browser-in-the-Loop エージェントがライブブラウザを直接操作できる画期的な機能です。フロントエンド開発では、エージェントがUIコンポーネントを実装した後、ブラウザで実際に表示を確認し、視覚的なフィードバックを基に自動的に修正を加えることができます。Webリサーチやワークフローの自動化にも活用でき、開発サイクルを大幅に短縮します。

Knowledge Base すべての会話やタスクから学習し、プロジェクト固有のKnowledge Items(KI)として蓄積する仕組みです。過去に解決した問題のパターン、アーキテクチャの決定事項、プロジェクト固有の慣習などを記憶し、新しいタスクで自動的に参照・再利用します。長期プロジェクトであるほどその効果は大きくなります。

料金プランと利用可能なAIモデル

Antigravityの料金体系はシンプルで、現在Public Preview中のためIndividual(個人)プランは無料です。

利用可能なプランは以下の4つです: - Individual($0/月): Public Preview中。トップティアモデルへのアクセスを含む - Developer: Google One(AI Pro/Ultra)サブスクリプション経由で利用可能 - Team: Google Workspaceユーザー向け。より高い利用制限 - Organization: Google Cloudユーザー向け(Coming Soon)

特筆すべきは、無料のIndividualプランでも以下のトップティアモデルが利用できる点です: - Gemini 3 Pro & Flash: Googleの最新AIモデル - Claude 4.5(Sonnet & Opus): Anthropicの高性能モデル - gpt-oss-120b: オープンソースの大規模言語モデル

複数のモデルを用途に応じて切り替えられるため、高速な応答が必要な場合はFlash、高精度な推論が必要な場合はProやOpusといった柔軟な使い分けが可能です。対応プラットフォームはmacOS(Apple Silicon / Intel両対応)で、VS Codeベースのエディタとして提供されています。

競合ツールとの比較と使い分け

2026年現在、AIコーディングツール市場は活況を呈しています。主要な3つのツールを比較してみましょう。

機能 Antigravity GitHub Copilot Cursor
コード補完
自律的タスク実行
ブラウザ操作 × ×
マルチエージェント ×
知識の蓄積・再利用 ×
ドキュメント管理 ×

Antigravityの最大の強みは、Agent-First IDEとしての総合力です。Mission Controlによるマルチエージェント管理、Browser-in-the-Loopによるブラウザ操作、Knowledge Baseによる知識の蓄積。これらは他のツールにはないユニークな機能です。

GitHub Copilotはインラインでのコード補完速度が非常に高速で、タイピングの延長線上で自然にコードを生成できます。単純なコード補完タスクにはCopilotが最適です。

Cursorはエディタ自体にAIが統合されたIDEで、チャットベースでのファイル横断的な編集に強みがあります。

結論として、大規模な実装や長期プロジェクトにはAntigravity、日常のコード補完にはCopilot、中規模の変更作業にはCursorがおすすめです。もちろん、これらを併用するのも賢い選択です。

まとめ

Google Antigravityは、AIを「ツール」ではなく「開発パートナー」として再定義するAgent-First IDEです。現在Public Previewで無料利用可能ですので、ぜひ公式サイト(antigravity.google)からダウンロードして体験してみてください。

Google Antigravity を利用して 概算見積作業 を行ってみた

何故、見積もりは辛いのか

「とりあえず、ざっくりでいいから明日までに見積もり出してよ」

営業やクライアントから飛んでくるこの無邪気な一言に、胃がキリキリした経験は誰にでもあるはずです。「ざっくり」と言いながら、後から「あの時の金額でいけるよね?」と詰められる恐怖。仕様も決まっていないのに数字を出さなければならない矛盾。

正直、エンジニアやPMのリソースを「まだ受注できるかわからない案件」の試算に大きく割くのは、経営的にも痛いんですよね。本来なら、要件定義や設計といったクリエイティブな部分に頭を使いたいところです。

そこで今回は、話題のAIエージェント**Google Antigravity**を使って、この不毛な(失礼)作業をどれだけ効率化できるか試してみました。

Google Antigravity での解決策

Antigravity Advantage

Antigravityは単なるチャットボットではなく、プロジェクト全体のコンテキスト(文脈)を理解し、ファイルを読み書きできる自律型エージェントです。

通常の見積もり作成では、過去の類似案件を探し出し、Excelをコピペし、行数を数え…といった地道な作業が必要です。しかしAntigravityを使えば、「資料を渡して、計算ロジックを教える」だけで、たたき台を一瞬で作ってくれます。

ポイントは **「案件ごとのコンテキスト分離」** と **「資料のダイレクト投入」** です。

実践フロー:企業+案件ディレクトリ戦略

まず最初にやるべきことは、AIに「今から何をするのか」を明確に伝えるための空間づくりです。

Step 1: 専用ディレクトリの作成

Antigravityを起動したら、まず企業名と案件名の階層構造でディレクトリを作成します。これが見積もりの「作業部屋」になります。

/Users/myname/projects/ClientA/RenewalProject

そして、AIにこう伝えます。

「ClientA社のRenewalProject用ディレクトリを作成しました。ここは概算見積もりを行うためのプロジェクトです。」

これにより、AIはこのディレクトリ内での作業に集中し、他の案件と情報が混ざることを防げます。

Step 2: 資料の投げ込み

次に、クライアントから貰ったRFP(提案依頼書)や、メモ書きレベルの要件定義書(テキストファイルやPDF)、議事録などを、作成したフォルダにそのまま「投げ込み」ます。

ファイル名がバラバラでも、フォーマットが混在していても構いません。生の情報をそのまま渡すのが、AI時代の手抜…ではなく、効率化のコツです。

Step 3: ダークデータ(PDF)のテキスト化

PDFや画像データは、そのままだと解析精度が落ちたり、読み込みに時間がかかることがあります。そこで、Antigravityに「道具」を使わせてテキスト化します。

「この環境で利用可能な、PDFからテキストを抽出するツール(pdftotextなど)を探してください。見つかったら、それを使ってディレクトリ内の全PDFをテキストファイル(.txt)に変換してください。」

自分でコマンドを調べる必要はありません。「ツールを探して実行して」といえば、勝手に環境を調査して最適な手段を実行してくれる。これがAIエージェントの真骨頂です。

Step 4: 情報の集約(Markdown清書)

すべてテキストデータになったところで、情報を一冊のノート(Markdown)にまとめさせます。

「変換されたテキストと既存の資料をすべて読み込み、プロジェクトの背景、目的、主要機能を整理して summary.md という1つのMarkdownファイルにまとめてください。」

こう指示することで、AIは散らばった情報を体系化し、「私が理解したこのプロジェクトはこういうものです」と提示してくれます。ここで認識齟齬があれば、見積もり前に修正できるわけです。

Step 5: AIへの教え方と見積もり

プロジェクトの全体像が summary.md に固まったら、いよいよ計算のルール(コンテキスト)を教えます。ここがマネージャーの腕の見せ所です。

基礎情報の定義

以下のようなプロンプトで、見積もりの前提条件をインプットします。

【見積もり前提条件】
- 人日単価: 50,000円
- 管理費: 全体の10%
- バッファ: 不確実性が高い項目は1.5倍のリスク係数を乗せること
- 開発期間: 3ヶ月想定

上記設定に基づき、フォルダ内の資料から「機能一覧」を抽出し、工数概算を行ってください。

これだけで、Antigravityは資料を読み込み、機能をリストアップし、それぞれの難易度を判定して工数を算出してくれます。

「ログイン機能…認証含む…3人日」「管理画面…CRUDあり…5人日」といった具合に、驚くほどそれっぽい数字が出てきます。

結果とまとめ

実際にやってみた結果、人間がやると半日はかかる「機能洗い出し」と「初期見積もりExcel作成」が、わずか数分で完了しました。

もちろん、最終的には人間の目でのチェックと調整は必要です。しかし、ゼロから積み上げるのと、8割完成した状態から修正するのとでは、精神的な負荷が全く違います。

「まずはAIにたたき台を作らせる」。これからのマネジメントの常識になりそうです。

説明用の動画も生成してもらいました

執筆・監修者情報

KIX(エンジニア兼管理職)

業界歴20年。現場のエンジニアリングからマネジメントまでを統括。技術の変遷を実体験として持つ専門家。

※本記事はAI技術を活用して初稿を作成し、執筆者が内容の正確性と技術的背景を詳細に検証・編集しています。

【Mac】Ollama + OpenWebUI: Docker Composeによる最短構築手順と「GPU問題」の現実

【Mac】Ollama + OpenWebUI: Docker Composeによる最短構築手順と「GPU問題」の現実解

最近、社内でも「ローカルLLM」の話題が尽きません。 データの機密性を保ちつつ、好き放題にAIを使える環境を手元に持っておくことは、技術検証において必須になりつつあります。

今回は、Macユーザー向けに Ollama(バックエンド)と OpenWebUI(フロントエンド)を組み合わせた環境を、エンジニアらしく Docker Compose でサクッと構築する手順を紹介します。

…が、実はそこには「Dockerには罠がある」という話もしなければなりません。 構築手順とセットで、Mac特有のパフォーマンス問題とその回避策(ハイブリッド構成)まで、現場目線で深掘りします。

Docker Composeで一発構築(基本編)

まずは「とにかく動かす」ことが大事です。 依存関係を汚さず、コマンド一発で環境が立ち上がるのがDockerの魅力です。

以下の docker-compose.yaml を作成します。

services:
  # バックエンド: LLMを動かすエンジン
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    ports:
      - "11434:11434"
    volumes:
      - ./ollama:/root/.ollama  # モデルデータを永続化
    restart: always
    environment:
      - OLLAMA_KEEP_ALIVE=24h   # モデルをメモリに維持する時間
      - OLLAMA_NUM_PARALLEL=2   # 並列リクエスト数

  # フロントエンド: ChatGPTライクなUI
  ollama-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: ollama-webui
    restart: unless-stopped
    ports:
      - "8080:8080"
    extra_hosts: 
      - "host.docker.internal:host-gateway" # コンテナからホストへアクセス用
    depends_on:
      - ollama
    volumes:
      - ./ollama-webui:/app/backend/data # チャット履歴等を永続化
    environment:
      - OLLAMA_BASE_URL=http://ollama:11434 # コンテナ間通信

volumes:
  ollama:
  ollama-webui:

起動とモデルの準備

# 起動
docker-compose up -d

# モデルのダウンロード(例: 軽量で高性能なLlama 3)
docker exec -it ollama ollama run llama3

これで http://localhost:8080 にアクセスすれば、アカウント作成画面(初回のみ)を経て、すぐにチャットが始められます。 チームメンバーに「これ試してみて」と共有するなら、このdocker-compose.yamlを渡すのが最適解です。

Macユーザーが直面する「重い」という現実

しかし、Mac(特にApple Silicon搭載機)で上記の手順を実行すると、あることに気づくはずです。

「…あれ、生成遅くない?」

ファンが勢いよく回り出し、PC本体が熱くなります。 実は、現在のDocker Desktop for Macの仕様上、コンテナ内のOllamaからはMacのGPU (Metal) に直接アクセスできません

結果として、高性能なM1/M2/M3チップを積んでいても、LLMの推論処理を含めた全てを CPU で処理することになります。 これでは、せっかくのMacのパワフルさが台無しです。

Warning

CPU動作だと、7Bクラスのモデルでもレスポンスが「モッサリ」します。実用には少し厳しいレベルです。

最適解:ハイブリッド構成(Native + Docker)

そこで私が推奨する「ファイナルアンサー」がこれです。

  • Ollama: Mac Native版アプリを使用(GPUフル活用)
  • OpenWebUI: Dockerコンテナを使用(環境管理が楽)

この構成なら、推論はGPUで爆速、UIはDockerで管理という「いいとこ取り」が可能です。

手順1: Native Ollamaのセットアップ

1. 公式サイト (ollama.com) からMac版をダウンロードしてインストール。 2. ターミナルで ollama serve が動いていることを確認(アプリ起動で自動起動しています)。

手順2: 外部アクセス許可の設定

デフォルトでは、Native Ollamaはローカルホスト以外からの接続を拒否します。Dockerコンテナ(OpenWebUI)から接続させるため、環境変数を設定します。

# ターミナルで実行
launchctl setenv OLLAMA_ORIGINS "*"

※設定後はOllamaアプリを再起動してください(メニューバーのアイコンからQuit -> 再度起動)。

手順3: Docker Composeの修正

WebUIだけを立ち上げるシンプルな構成に変更します。

services:
  ollama-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: ollama-webui
    restart: unless-stopped
    ports:
      - "8080:8080"
    extra_hosts:
      - "host.docker.internal:host-gateway" # ここが重要!
    volumes:
      - ./ollama-webui:/app/backend/data # 履歴データの永続化
    environment:
      # Docker内部のOllamaではなく、ホストマシンのポート11434を見に行く
      - OLLAMA_BASE_URL=http://host.docker.internal:11434

これで docker-compose -f docker-compose-hybrid.yaml up -d すれば完了です。

まとめ:適材適所で使い分ける

  • Docker完結版: Windows/Linuxユーザーや、GPUリソースを気にせずとりあえず試したいチーム向け。配布が楽。
  • ハイブリッド版: Macユーザーの個人の開発環境向け。GPUパワーを解放し、ストレスフリーな対話が可能。

技術的には「すべてDocker」が美しいのですが、ハードウェアの特性を活かすならこの一工夫が必要になります。 「導入してみたけど重くて使わなくなった」とならないよう、Macユーザーの皆さんはぜひNative版との連携を試してみてください。

このブログ記事はAIを利用して自動生成されました。

SimpleLogger:os.Loggerをラップした軽量Swiftライブラリ

SimpleLogger:os.Loggerをラップした軽量Swiftライブラリ

はじめに

iOSアプリ開発において、ログ出力はデバッグや保守の要です。Apple標準の統合ロギングシステムである os.Logger は非常に高機能でパフォーマンスも良いのですが、コードを書く際に「もう少し手軽に呼び出せたらいいのに」と感じることはないでしょうか?

そこで今回、os.Logger のパワーをそのままに、よりシンプルで直感的に扱える軽量なSwift用ラッパーライブラリ「SimpleLogger」を公開しました。 この記事では、自作ライブラリ SimpleLogger の特徴と使い方、そして実装時にこだわったポイントについて紹介します。

SimpleLogger とは?

Info

SimpleLogger は、Apple の os.Logger をラップした軽量な Swift ロギングユーティリティです。

既存の print デバッグではリリース後の追跡が難しく、かといって os.Logger をそのまま使うと初期化や呼び出しが少し冗長になりがちです。このライブラリは、その中間にある「手軽さ」と「実用性」を埋めるために設計しました。

  • リポジトリ: kixking/SimpleLogger
  • 言語: Swift 100%
  • ライセンス: MIT License
  • 最新バージョン: v1.1.1 (2026年1月27日リリース)

主な特徴とこだわり

1. とにかく手軽に使える(ゼロ設定でも動作)

ライブラリを導入してすぐに使い始められるよう、デフォルト設定を用意しています。 特に設定を行わなくても、サブシステム名にはアプリの Bundle Identifier が、カテゴリ名には "General" が自動的に適用されます。

もちろん、機能ごとにログを分けたい場合は、アプリ起動時などに以下のように1行記述するだけでカスタマイズ可能です。

// 任意のサブシステムとカテゴリを設定可能
Log.configure(subsystem: "com.example.MyApp", category: "Networking")

2. 直感的なメソッド名とレベル分け

ログレベルは、開発フローで頻出する4段階に絞っています。

  • info: アプリの動作状況などの一般情報
  • warning: 注意が必要な警告
  • error: 処理の失敗や例外
  • debug: 開発中のみ必要な詳細情報
Log.info("アプリの起動を開始しました")
Log.warning("低メモリ状態を検出しました")

3. Error型をそのまま渡せる

個人的に一番欲しかった機能がこれです。 API通信やファイル操作などで Error が発生した際、わざわざ error.localizedDescription などと変換しなくても、エラーオブジェクトをそのまま渡せるようにしました。

do {
    try loadData()
} catch {
    // Error型を直接引数に渡せます
    Log.error(error)
}

4. デバッグログの自動除外

開発中には大量に出力したいデバッグ情報も、リリース版ではノイズになったり、パフォーマンスに影響したりします。 Log.debug(...) メソッドは、#if DEBUG 環境下でのみ有効になるよう設計しているため、リリースビルドでは自動的に除外されます。

技術的な注意点:プライバシー保護

Warning

本ライブラリは os.Logger をベースにしているため、Appleの強力なプライバシー保護機能が適用されます。

セキュリティのため、動的な文字列(変数など)を含むログを出力しようとすると、コンソール上ではデフォルトで <private> とマスクされ、表示されない場合があります。これはユーザーの個人情報が意図せずログに残るのを防ぐための仕様です。

開発時の対処法
開発中に変数の値を確認したい場合は、以下のいずれかの方法でマスクを解除できます。

  • Xcodeなどのデバッガを接続した状態で実行する。
  • 「コンソール(Console.app)」の設定でプライベートデータの表示を有効にする。

導入方法

GitHubのリポジトリから Swift Package Manager (SPM) で簡単に追加できます。

https://github.com/kixking/SimpleLogger

Xcodeで File > Add Packages... を選択し、上記のURLを入力してパッケージを追加してください。

まとめ

SimpleLogger は、「多機能すぎず、でも必要な機能は揃っている」を目指して作成したライブラリです。

  • os.Logger の記述を短くしたい
  • エラーハンドリングのログを楽に書きたい
  • リリース時のデバッグログ削除を自動化したい

といったニーズがあれば、ぜひ使ってみてください。フィードバックやStarをいただけると開発の励みになります!

GitHubでリポジトリを見る

© 2026 kixking. All rights reserved.

Zero Config Onboarding:新人が初日からコミットできる環境

Zero Config Onboarding:新人が初日からコミットできる環境

はじめに:「環境構築3日」の無駄

新しいメンバーがジョインした初日。「Wikiの手順書通りにやっても動きません」「Nodeのバージョンが...」「DBがつながりません」。 これに付き合うメンターの時間と、新人のやる気が削がれる数日間。 エンジニアの時給を考えれば、この「環境構築コスト」は莫大な損失です。 Antigravityなら、この時間を「0秒」にします。

基礎知識:Antigravityの環境カプセル化

Point

Antigravityは、IDE、ランタイム、DB、拡張機能の設定など、開発に必要な全てをクラウド上のコンテナ(Dev Container)として定義・管理します。

これはDocker Composeの一歩先を行く概念です。 単にサーバーが動くだけではありません。「エディタの設定」「Lintのルール」「デバッグ構成」まで含めて配布されるのです。 つまり、誰がどのマシンで開いても、100%同じ開発体験が保証されます。

実践ガイド:git cloneから30秒で起動

新人がやることは、たった1つのコマンドだけです。

$ ag open https://github.com/my-org/core-service

Agent: "リポジトリを検出しました。"
Agent: "必要な依存関係(Node v22, Postgres 16, Redis)をプルしています..."
Agent: "VS Code環境をセットアップ中..."
Agent: "準備完了。開発を始めてください。"

この時点で、ローカルホストにはアプリが立ち上がり、DBにはシードデータが投入され、ホットリロードが効く状態になっています。 新人はコーヒーを淹れる暇すらありません。即座にコードを書き始められます。

ユースケース:副業・フリーランスの即戦力化

最近は副業エンジニアや短期の業務委託を受け入れるケースも増えています。 週数時間の稼働の人に、重厚な環境構築をお願いするのは酷です。 Antigravityなら、ブラウザからURLを開くだけで開発に参加してもらえます。 「環境構築で週末が終わりました」という悲劇はもう起きません。

ハマりどころ:マシンスペックの要求

Warning

全てをコンテナ化・仮想化するため、ホストマシン(またはクラウドインスタンス)には相応のメモリリソース(推奨16GB以上)が必要です。

魔法のような利便性の裏には、リソースの消費があります。 しかし、エンジニアの「時間」とマシンの「メモリ」。どちらが高いかは、経営視点で見れば明らかでしょう。 40代のマネージャーとしては、迷わずメモリに投資すべきです。

まとめ:オンボーディングコストは「ゼロ」になる

「環境構築」という儀式は、過去の遺物となりました。 Antigravityによって、エンジニアは入社初日の最初の1時間でプルリクエストを出せるようになります。 このスピード感こそが、チームの士気を高め、プロダクトの成長を加速させるのです。

この記事は、Google Antigravityの「Zero Config Onboarding」機能を活用した実体験に基づき執筆されました。

API Contract Testing:「仕様書と違う」を撲滅する技術

API Contract Testing:「仕様書と違う」を撲滅する技術

はじめに:連携エラーは「結合テスト」まで気づかない?

「あれ、バックエンドのレスポンス、キー名が変わってませんか?」。 フロントエンド開発者がSlackでぼやくこの光景。リリース直前の結合テストで発覚し、急いで両チームが修正に走る。 これがどれほどのコストロスか、マネージャーなら誰でも知っています。 APIの仕様変更が、コードを書く前に検知できたらどうでしょうか?

基礎知識:API Contract Testingとは

Point

Antigravityは、OpenAPI (Swagger) などのスキーマ定義を「契約(Contract)」として扱い、実装コードがその契約に違反していないかをリアルタイムで監視・テストします。

これは「ドキュメント駆動開発」の究極形です。 仕様書(YAML)を変更すると、Antigravityエージェントが即座にフロントエンドの型定義(TypeScript)とバックエンドのバリデーションロジック(Go/Python)を書き換えます。 「仕様書と実装のズレ」という概念自体が存在しなくなるのです。

実践ガイド:OpenAPI定義からの自動検証

使い方は、スキーマファイルをリポジトリに置くだけです。

# schema/user-service.yaml を更新
paths:
  /users:
    get:
      responses:
        '200':
          description: "ユーザー一覧"
          # ageフィールドを追加
          content: ...

ファイルを保存した瞬間、Antigravityがバックグラウンドで走ります。

Agent: "スキーマ変更を検知しました。"
Agent: "User型定義ファイル (types.ts) を更新中..."
Agent: "バックエンドのモックレスポンスを更新中..."
Agent: "警告: UserComponent.tsx で 'age' プロパティが未処理です。"

実装漏れまで教えてくれるため、リリース後に「画面にデータが出ない」という事故はゼロになります。

ユースケース:マイクロサービス間の整合性

サービスが分割されればされるほど、API連携のリスクは増大します。 Antigravityを使えば、Producer(API提供側)とConsumer(API利用側)の間の整合性を、デプロイ前に完全に保証できます。 「相手のサービスが落ちててテストできない」という言い訳も、高性能な自動モック生成によって過去のものとなります。

ハマりどころ:モックサーバーの鮮度管理

Warning

スキーマ定義自体が古くなると、全ての自動化が無意味になります。スキーマ更新を開発プロセスの「最初の1歩」に強制するルール作りが必要です。

Antigravityは強力ですが、あくまでスキーマに従います。人間が「コードだけこっそり直す」ことを許してはいけません。 CIパイプラインで「スキーマと実装の乖離」をチェックし、ズレがあればマージ不可にする設定を入れましょう。

まとめ:ドキュメント=真実(Source of Truth)

「ドキュメントは嘘をつく」と言われてきましたが、Antigravity環境下では「ドキュメントこそが真実」です。 仕様書を書くことが、そのままコードを書くことと同義になる。 これが、APIエコノミー時代における正しい開発の姿なのです。

この記事は、Google Antigravityの「API Contract Testing」機能を活用した実体験に基づき執筆されました。