「Antigravity vs Copilot vs Cursor!最強のコーディングAIはどれだ?」

AIコーディングツール戦国時代の昨今、「Antigravity vs Copilot vs Cursor!最強のコーディングAIはどれだ?」という疑問を持つ開発者は多いはずです。本記事では、話題の**Google Antigravity**、王道の**GitHub Copilot**、そして新鋭の**Cursor**を徹底比較し、それぞれの特徴と最適な使い分けを解説します。

3大AIツールの基本スペック比較

まずは3つのツールの基本スペックを比較表で見てみましょう。

特徴 Antigravity GitHub Copilot Cursor
**開発元** Google DeepMind GitHub (Microsoft) / OpenAI Cursor Team
**コア概念** Agent-First IDE AI Pair Programmer AI-Integrated IDE
**コード補完** ○ (Tab) ◎ (高速) ◎ (高速)
**チャット** ◎ (Context重視)
**自律エージェント** ◎ (Mission Control) △ (Workspace) ○ (Agent Beta)
**ブラウザ操作** ◎ (Browser-in-the-Loop) × ×
**IDEベース** VS Code fork VS Code ext / VS Orign VS Code fork

Antigravityが他と決定的に異なるのは、「IDEの中に住むエージェント」という立ち位置です。CopilotやCursorが「人間が書くのを助ける」ツールであるのに対し、Antigravityは「人間に代わってタスクを実行する」パートナーを目指しています。

Antigravityの強み:Agent-Firstによる自律性

Antigravityを選ぶ最大の理由は、その圧倒的な自律性(Autonomy)にあります。

例えば「ログイン画面を作って」と指示した場合の挙動の違いを見てみましょう。 - Copilot/Cursor: コードを生成してエディタに表示します。ファイル作成やエラー修正は人間が行う必要があります。 - Antigravity: 必要なファイル(HTML/CSS/JS/Test)を全て作成し、テストを実行し、ブラウザで表示確認まで行います。

特にBrowser-in-the-Loop機能は強力で、実際にブラウザを操作してUIの崩れを確認したり、動的な挙動をテストしたりできます。また、Knowledge Baseによりプロジェクト固有のルール(「当社のデザインシステムではこのクラスを使う」など)を永続的に記憶するため、使えば使うほど「言わなくても分かってくれる」相棒に成長します。

Copilot & Cursorの強み:速度とUX

一方で、スピードと直感的な操作性ではCopilotとCursorに分があります。

GitHub Copilotは、とにかく「速い」です。ゴーストテキスト(グレーの文字)が表示されるまでのレイテンシが極めて短く、思考を止めずにコーディングを続けられます。既存のVS Code環境をそのまま使えるのも大きな利点です。

Cursorは、「体験(UX)」が洗練されています。Cmd+Kでのインライン編集や、`@Symbols`によるコンテキスト指定など、開発者が「こうしたい」と思った瞬間にAIを呼び出せるインターフェースは秀逸です。ドキュメントを読み込ませる機能(@Docs)も非常に使いやすく、最新ライブラリを使った開発では無類の強さを発揮します。

結論:あなたに最適な最強AIはこれだ!

それぞれの特徴を踏まえると、最強のAIは「目的」によって変わります。

1. Antigravityがおすすめな人 - 「実装」そのものをAIに任せたい人 - フロントエンドからバックエンドまで一気通貫で機能を作りたい人 - 新しいAgenticな開発スタイルに挑戦したい人

2. Cursorがおすすめな人 - 既存のコードをガリガリ自分で書きつつ、AIにサポートしてほしい人 - 最新のライブラリやドキュメントを頻繁に参照する人 - エディタのUXにこだわりがある人

3. GitHub Copilotがおすすめな人 - 企業のセキュリティポリシーでツールが制限されている人 - 既存のVS Code環境を変えたくない人 - とにかく補完のレスポンス速度を重視する人

個人的な推奨は、CursorまたはVS Codeをメインにしつつ、Antigravityを「重いタスクを投げるためのサブIDE」として併用するスタイルです。適材適所でツールを使い分けることこそ、現代のエンジニアに求められる「最強の」スキルかもしれません。

まとめ

結論として、これらは競合というより「補完関係」にあります。実装の高速化ならCopilot/Cursor、機能開発やタスクの丸投げならAntigravity。自分の開発スタイルに合わせて、最適なツール(または組み合わせ)を選んでみてください。

Google Antigravityは、Google DeepMindが開発した「Agent-First IDE」

Google Antigravityは、Google DeepMindが開発した「Agent-First IDE」です。本記事では「Google Antigravityとは?次世代Agent-First IDEの全貌」をテーマに、エディタ・ターミナル・ブラウザを横断して自律的にタスクを遂行するこの次世代IDEの魅力に迫ります。

Antigravityの概要とAgent-First IDEという新概念

Google Antigravityは、Google DeepMindチームが開発した次世代の統合開発環境(IDE)です。公式サイトでは「Build the new way」をキャッチコピーに掲げ、従来のAIコード補完ツールとは根本的に異なるアプローチを取っています。

最大の特徴は「Agent-First」という設計思想です。Antigravityは、AIを単なるコード補完エンジンとしてではなく、自律的に思考し、計画し、実行するエージェントの集合体として扱います。これらのエージェントは、エディタ上のコード編集だけでなく、ターミナルでのコマンド実行、さらにはブラウザの操作まで一貫して自動的に行えるのです。

ユーザーはタスクを指示するだけで、エージェントが以下を自律的に遂行します: - コードベースの分析と理解 - 実装計画(Artifact)の作成とユーザーへの提示 - 承認後の実装・テスト・検証 - ドキュメントの自動生成と更新

つまり、開発者は「何を作りたいか」を伝えるだけで、「どう作るか」の大部分をエージェントに委ねることができます。これがAgent-First IDEの革新的なポイントです。

主要機能:Mission Control・Browser-in-the-Loop・Knowledge Base

Antigravityには、他のAIツールにはない独自の機能が搭載されています。

Mission Control(Agent Manager) Mission Controlは、複数のエージェントを並行して管理する「司令塔」のような機能です。異なるワークスペースで複数のエージェントを同時に稼働させ、バックログの消化やコードベースの調査など、長時間かかるタスクをバックグラウンドで処理できます。個別のツール呼び出しではなく「Task Groups」単位で管理するため、エージェントにより高い自律性を与えられるのが特徴です。

Browser-in-the-Loop エージェントがライブブラウザを直接操作できる画期的な機能です。フロントエンド開発では、エージェントがUIコンポーネントを実装した後、ブラウザで実際に表示を確認し、視覚的なフィードバックを基に自動的に修正を加えることができます。Webリサーチやワークフローの自動化にも活用でき、開発サイクルを大幅に短縮します。

Knowledge Base すべての会話やタスクから学習し、プロジェクト固有のKnowledge Items(KI)として蓄積する仕組みです。過去に解決した問題のパターン、アーキテクチャの決定事項、プロジェクト固有の慣習などを記憶し、新しいタスクで自動的に参照・再利用します。長期プロジェクトであるほどその効果は大きくなります。

料金プランと利用可能なAIモデル

Antigravityの料金体系はシンプルで、現在Public Preview中のためIndividual(個人)プランは無料です。

利用可能なプランは以下の4つです: - Individual($0/月): Public Preview中。トップティアモデルへのアクセスを含む - Developer: Google One(AI Pro/Ultra)サブスクリプション経由で利用可能 - Team: Google Workspaceユーザー向け。より高い利用制限 - Organization: Google Cloudユーザー向け(Coming Soon)

特筆すべきは、無料のIndividualプランでも以下のトップティアモデルが利用できる点です: - Gemini 3 Pro & Flash: Googleの最新AIモデル - Claude 4.5(Sonnet & Opus): Anthropicの高性能モデル - gpt-oss-120b: オープンソースの大規模言語モデル

複数のモデルを用途に応じて切り替えられるため、高速な応答が必要な場合はFlash、高精度な推論が必要な場合はProやOpusといった柔軟な使い分けが可能です。対応プラットフォームはmacOS(Apple Silicon / Intel両対応)で、VS Codeベースのエディタとして提供されています。

競合ツールとの比較と使い分け

2026年現在、AIコーディングツール市場は活況を呈しています。主要な3つのツールを比較してみましょう。

機能 Antigravity GitHub Copilot Cursor
コード補完
自律的タスク実行
ブラウザ操作 × ×
マルチエージェント ×
知識の蓄積・再利用 ×
ドキュメント管理 ×

Antigravityの最大の強みは、Agent-First IDEとしての総合力です。Mission Controlによるマルチエージェント管理、Browser-in-the-Loopによるブラウザ操作、Knowledge Baseによる知識の蓄積。これらは他のツールにはないユニークな機能です。

GitHub Copilotはインラインでのコード補完速度が非常に高速で、タイピングの延長線上で自然にコードを生成できます。単純なコード補完タスクにはCopilotが最適です。

Cursorはエディタ自体にAIが統合されたIDEで、チャットベースでのファイル横断的な編集に強みがあります。

結論として、大規模な実装や長期プロジェクトにはAntigravity、日常のコード補完にはCopilot、中規模の変更作業にはCursorがおすすめです。もちろん、これらを併用するのも賢い選択です。

まとめ

Google Antigravityは、AIを「ツール」ではなく「開発パートナー」として再定義するAgent-First IDEです。現在Public Previewで無料利用可能ですので、ぜひ公式サイト(antigravity.google)からダウンロードして体験してみてください。

Google Antigravity を利用して 概算見積作業 を行ってみた

Google Antigravity を利用して 概算見積作業 を行ってみた

何故、見積もりは辛いのか

「とりあえず、ざっくりでいいから明日までに見積もり出してよ」

営業やクライアントから飛んでくるこの無邪気な一言に、胃がキリキリした経験は誰にでもあるはずです。「ざっくり」と言いながら、後から「あの時の金額でいけるよね?」と詰められる恐怖。仕様も決まっていないのに数字を出さなければならない矛盾。

正直、エンジニアやPMのリソースを「まだ受注できるかわからない案件」の試算に大きく割くのは、経営的にも痛いんですよね。本来なら、要件定義や設計といったクリエイティブな部分に頭を使いたいところです。

そこで今回は、話題のAIエージェント**Google Antigravity**を使って、この不毛な(失礼)作業をどれだけ効率化できるか試してみました。

Google Antigravity での解決策

Antigravity Advantage

Antigravityは単なるチャットボットではなく、プロジェクト全体のコンテキスト(文脈)を理解し、ファイルを読み書きできる自律型エージェントです。

通常の見積もり作成では、過去の類似案件を探し出し、Excelをコピペし、行数を数え…といった地道な作業が必要です。しかしAntigravityを使えば、「資料を渡して、計算ロジックを教える」だけで、たたき台を一瞬で作ってくれます。

ポイントは **「案件ごとのコンテキスト分離」** と **「資料のダイレクト投入」** です。

実践フロー:企業+案件ディレクトリ戦略

まず最初にやるべきことは、AIに「今から何をするのか」を明確に伝えるための空間づくりです。

Step 1: 専用ディレクトリの作成

Antigravityを起動したら、まず企業名と案件名の階層構造でディレクトリを作成します。これが見積もりの「作業部屋」になります。

/Users/myname/projects/ClientA/RenewalProject

そして、AIにこう伝えます。

「ClientA社のRenewalProject用ディレクトリを作成しました。ここは概算見積もりを行うためのプロジェクトです。」

これにより、AIはこのディレクトリ内での作業に集中し、他の案件と情報が混ざることを防げます。

Step 2: 資料の投げ込み

次に、クライアントから貰ったRFP(提案依頼書)や、メモ書きレベルの要件定義書(テキストファイルやPDF)、議事録などを、作成したフォルダにそのまま「投げ込み」ます。

ファイル名がバラバラでも、フォーマットが混在していても構いません。生の情報をそのまま渡すのが、AI時代の手抜…ではなく、効率化のコツです。

Step 3: ダークデータ(PDF)のテキスト化

PDFや画像データは、そのままだと解析精度が落ちたり、読み込みに時間がかかることがあります。そこで、Antigravityに「道具」を使わせてテキスト化します。

「この環境で利用可能な、PDFからテキストを抽出するツール(pdftotextなど)を探してください。見つかったら、それを使ってディレクトリ内の全PDFをテキストファイル(.txt)に変換してください。」

自分でコマンドを調べる必要はありません。「ツールを探して実行して」といえば、勝手に環境を調査して最適な手段を実行してくれる。これがAIエージェントの真骨頂です。

Step 4: 情報の集約(Markdown清書)

すべてテキストデータになったところで、情報を一冊のノート(Markdown)にまとめさせます。

「変換されたテキストと既存の資料をすべて読み込み、プロジェクトの背景、目的、主要機能を整理して summary.md という1つのMarkdownファイルにまとめてください。」

こう指示することで、AIは散らばった情報を体系化し、「私が理解したこのプロジェクトはこういうものです」と提示してくれます。ここで認識齟齬があれば、見積もり前に修正できるわけです。

Step 5: AIへの教え方と見積もり

プロジェクトの全体像が summary.md に固まったら、いよいよ計算のルール(コンテキスト)を教えます。ここがマネージャーの腕の見せ所です。

基礎情報の定義

以下のようなプロンプトで、見積もりの前提条件をインプットします。

【見積もり前提条件】
- 人日単価: 50,000円
- 管理費: 全体の10%
- バッファ: 不確実性が高い項目は1.5倍のリスク係数を乗せること
- 開発期間: 3ヶ月想定

上記設定に基づき、フォルダ内の資料から「機能一覧」を抽出し、工数概算を行ってください。

これだけで、Antigravityは資料を読み込み、機能をリストアップし、それぞれの難易度を判定して工数を算出してくれます。

「ログイン機能…認証含む…3人日」「管理画面…CRUDあり…5人日」といった具合に、驚くほどそれっぽい数字が出てきます。

結果とまとめ

実際にやってみた結果、人間がやると半日はかかる「機能洗い出し」と「初期見積もりExcel作成」が、わずか数分で完了しました。

もちろん、最終的には人間の目でのチェックと調整は必要です。しかし、ゼロから積み上げるのと、8割完成した状態から修正するのとでは、精神的な負荷が全く違います。

「まずはAIにたたき台を作らせる」。これからのマネジメントの常識になりそうです。

【Mac】Ollama + OpenWebUI: Docker Composeによる最短構築手順と「GPU問題」の現実

【Mac】Ollama + OpenWebUI: Docker Composeによる最短構築手順と「GPU問題」の現実解

最近、社内でも「ローカルLLM」の話題が尽きません。 データの機密性を保ちつつ、好き放題にAIを使える環境を手元に持っておくことは、技術検証において必須になりつつあります。

今回は、Macユーザー向けに Ollama(バックエンド)と OpenWebUI(フロントエンド)を組み合わせた環境を、エンジニアらしく Docker Compose でサクッと構築する手順を紹介します。

…が、実はそこには「Dockerには罠がある」という話もしなければなりません。 構築手順とセットで、Mac特有のパフォーマンス問題とその回避策(ハイブリッド構成)まで、現場目線で深掘りします。

Docker Composeで一発構築(基本編)

まずは「とにかく動かす」ことが大事です。 依存関係を汚さず、コマンド一発で環境が立ち上がるのがDockerの魅力です。

以下の docker-compose.yaml を作成します。

services:
  # バックエンド: LLMを動かすエンジン
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    ports:
      - "11434:11434"
    volumes:
      - ./ollama:/root/.ollama  # モデルデータを永続化
    restart: always
    environment:
      - OLLAMA_KEEP_ALIVE=24h   # モデルをメモリに維持する時間
      - OLLAMA_NUM_PARALLEL=2   # 並列リクエスト数

  # フロントエンド: ChatGPTライクなUI
  ollama-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: ollama-webui
    restart: unless-stopped
    ports:
      - "8080:8080"
    extra_hosts: 
      - "host.docker.internal:host-gateway" # コンテナからホストへアクセス用
    depends_on:
      - ollama
    volumes:
      - ./ollama-webui:/app/backend/data # チャット履歴等を永続化
    environment:
      - OLLAMA_BASE_URL=http://ollama:11434 # コンテナ間通信

volumes:
  ollama:
  ollama-webui:

起動とモデルの準備

# 起動
docker-compose up -d

# モデルのダウンロード(例: 軽量で高性能なLlama 3)
docker exec -it ollama ollama run llama3

これで http://localhost:8080 にアクセスすれば、アカウント作成画面(初回のみ)を経て、すぐにチャットが始められます。 チームメンバーに「これ試してみて」と共有するなら、このdocker-compose.yamlを渡すのが最適解です。

Macユーザーが直面する「重い」という現実

しかし、Mac(特にApple Silicon搭載機)で上記の手順を実行すると、あることに気づくはずです。

「…あれ、生成遅くない?」

ファンが勢いよく回り出し、PC本体が熱くなります。 実は、現在のDocker Desktop for Macの仕様上、コンテナ内のOllamaからはMacのGPU (Metal) に直接アクセスできません

結果として、高性能なM1/M2/M3チップを積んでいても、LLMの推論処理を含めた全てを CPU で処理することになります。 これでは、せっかくのMacのパワフルさが台無しです。

Warning

CPU動作だと、7Bクラスのモデルでもレスポンスが「モッサリ」します。実用には少し厳しいレベルです。

最適解:ハイブリッド構成(Native + Docker)

そこで私が推奨する「ファイナルアンサー」がこれです。

  • Ollama: Mac Native版アプリを使用(GPUフル活用)
  • OpenWebUI: Dockerコンテナを使用(環境管理が楽)

この構成なら、推論はGPUで爆速、UIはDockerで管理という「いいとこ取り」が可能です。

手順1: Native Ollamaのセットアップ

1. 公式サイト (ollama.com) からMac版をダウンロードしてインストール。 2. ターミナルで ollama serve が動いていることを確認(アプリ起動で自動起動しています)。

手順2: 外部アクセス許可の設定

デフォルトでは、Native Ollamaはローカルホスト以外からの接続を拒否します。Dockerコンテナ(OpenWebUI)から接続させるため、環境変数を設定します。

# ターミナルで実行
launchctl setenv OLLAMA_ORIGINS "*"

※設定後はOllamaアプリを再起動してください(メニューバーのアイコンからQuit -> 再度起動)。

手順3: Docker Composeの修正

WebUIだけを立ち上げるシンプルな構成に変更します。

services:
  ollama-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: ollama-webui
    restart: unless-stopped
    ports:
      - "8080:8080"
    extra_hosts:
      - "host.docker.internal:host-gateway" # ここが重要!
    volumes:
      - ./ollama-webui:/app/backend/data # 履歴データの永続化
    environment:
      # Docker内部のOllamaではなく、ホストマシンのポート11434を見に行く
      - OLLAMA_BASE_URL=http://host.docker.internal:11434

これで docker-compose -f docker-compose-hybrid.yaml up -d すれば完了です。

まとめ:適材適所で使い分ける

  • Docker完結版: Windows/Linuxユーザーや、GPUリソースを気にせずとりあえず試したいチーム向け。配布が楽。
  • ハイブリッド版: Macユーザーの個人の開発環境向け。GPUパワーを解放し、ストレスフリーな対話が可能。

技術的には「すべてDocker」が美しいのですが、ハードウェアの特性を活かすならこの一工夫が必要になります。 「導入してみたけど重くて使わなくなった」とならないよう、Macユーザーの皆さんはぜひNative版との連携を試してみてください。

このブログ記事はAIを利用して自動生成されました。

SimpleLogger:os.Loggerをラップした軽量Swiftライブラリ

SimpleLogger:os.Loggerをラップした軽量Swiftライブラリ

はじめに

iOSアプリ開発において、ログ出力はデバッグや保守の要です。Apple標準の統合ロギングシステムである os.Logger は非常に高機能でパフォーマンスも良いのですが、コードを書く際に「もう少し手軽に呼び出せたらいいのに」と感じることはないでしょうか?

そこで今回、os.Logger のパワーをそのままに、よりシンプルで直感的に扱える軽量なSwift用ラッパーライブラリ「SimpleLogger」を公開しました。 この記事では、自作ライブラリ SimpleLogger の特徴と使い方、そして実装時にこだわったポイントについて紹介します。

SimpleLogger とは?

Info

SimpleLogger は、Apple の os.Logger をラップした軽量な Swift ロギングユーティリティです。

既存の print デバッグではリリース後の追跡が難しく、かといって os.Logger をそのまま使うと初期化や呼び出しが少し冗長になりがちです。このライブラリは、その中間にある「手軽さ」と「実用性」を埋めるために設計しました。

  • リポジトリ: kixking/SimpleLogger
  • 言語: Swift 100%
  • ライセンス: MIT License
  • 最新バージョン: v1.1.1 (2026年1月27日リリース)

主な特徴とこだわり

1. とにかく手軽に使える(ゼロ設定でも動作)

ライブラリを導入してすぐに使い始められるよう、デフォルト設定を用意しています。 特に設定を行わなくても、サブシステム名にはアプリの Bundle Identifier が、カテゴリ名には "General" が自動的に適用されます。

もちろん、機能ごとにログを分けたい場合は、アプリ起動時などに以下のように1行記述するだけでカスタマイズ可能です。

// 任意のサブシステムとカテゴリを設定可能
Log.configure(subsystem: "com.example.MyApp", category: "Networking")

2. 直感的なメソッド名とレベル分け

ログレベルは、開発フローで頻出する4段階に絞っています。

  • info: アプリの動作状況などの一般情報
  • warning: 注意が必要な警告
  • error: 処理の失敗や例外
  • debug: 開発中のみ必要な詳細情報
Log.info("アプリの起動を開始しました")
Log.warning("低メモリ状態を検出しました")

3. Error型をそのまま渡せる

個人的に一番欲しかった機能がこれです。 API通信やファイル操作などで Error が発生した際、わざわざ error.localizedDescription などと変換しなくても、エラーオブジェクトをそのまま渡せるようにしました。

do {
    try loadData()
} catch {
    // Error型を直接引数に渡せます
    Log.error(error)
}

4. デバッグログの自動除外

開発中には大量に出力したいデバッグ情報も、リリース版ではノイズになったり、パフォーマンスに影響したりします。 Log.debug(...) メソッドは、#if DEBUG 環境下でのみ有効になるよう設計しているため、リリースビルドでは自動的に除外されます。

技術的な注意点:プライバシー保護

Warning

本ライブラリは os.Logger をベースにしているため、Appleの強力なプライバシー保護機能が適用されます。

セキュリティのため、動的な文字列(変数など)を含むログを出力しようとすると、コンソール上ではデフォルトで <private> とマスクされ、表示されない場合があります。これはユーザーの個人情報が意図せずログに残るのを防ぐための仕様です。

開発時の対処法
開発中に変数の値を確認したい場合は、以下のいずれかの方法でマスクを解除できます。

  • Xcodeなどのデバッガを接続した状態で実行する。
  • 「コンソール(Console.app)」の設定でプライベートデータの表示を有効にする。

導入方法

GitHubのリポジトリから Swift Package Manager (SPM) で簡単に追加できます。

https://github.com/kixking/SimpleLogger

Xcodeで File > Add Packages... を選択し、上記のURLを入力してパッケージを追加してください。

まとめ

SimpleLogger は、「多機能すぎず、でも必要な機能は揃っている」を目指して作成したライブラリです。

  • os.Logger の記述を短くしたい
  • エラーハンドリングのログを楽に書きたい
  • リリース時のデバッグログ削除を自動化したい

といったニーズがあれば、ぜひ使ってみてください。フィードバックやStarをいただけると開発の励みになります!

GitHubでリポジトリを見る

© 2026 kixking. All rights reserved.