SSL証明書の有効期限短縮ショック…手動更新の限界と自動化へ

SSL証明書の有効期限短縮ショック…手動更新の限界と自動化への道

先日、インフラ担当の若手から「あれ、この証明書、前更新したの最近じゃなかったでしたっけ?」とボヤかれまして。確かに、昔は2年や3年有効なのが当たり前だったSSL/TLS証明書ですが、ここ最近はすっかり短命になりましたね。

そして今回、ブラウザベンダー界隈からさらに胃の痛くなるようなロードマップが聞こえてきました。どうやら現場の気合いや、スプレッドシートの手動管理では乗り切れないフェーズに突入したようです。

CA/ブラウザフォーラムで可決された短縮ロードマップ

現在: 最大有効期間 398日
2026年3月15日以降: 200日に短縮
2027年3月15日以降: 100日に短縮
2029年3月15日以降: 47日に短縮(審査情報の再利用も10日へ劇的に制限)

いよいよ来る、SSL証明書「200日」時代

Googleをはじめとするブラウザベンダーが主導する形で、セキュリティ向上のためにSSL証明書の有効期限短縮が着々と進んでいます。

CA/ブラウザフォーラムにおいて、以下のように段階的な短縮方針が正式に可決されました。

適用日 最大有効期間 ドメイン審査情報
再利用期間
組織認証情報
再利用期間
現在 398日 398日 825日
2026年3月15日以降 200日 200日 398日
2027年3月15日以降 100日 100日 398日
2029年3月15日以降 47日 10日 398日

一気に短くなる印象ですね。2029年には47日…約1.5ヶ月ごとですよ?四半期のサイクルより短いうえに、ドメイン審査情報の再利用期間も10日になるため、これまでの「ついでに更新」感覚では全然通らなくなります。ちょっと他の大きなプロジェクトにかまけていたり、メンバーが長めの休暇を取ったりしていたら、あっという間に期限がやってきます。これはインフラチームにとって笑えない冗談です。

プレイングマネージャー視点で見る「本当のコスト」

この期限短縮、技術的な変化というより、実は「運用コストとリスクの問題」なんですよね。私もプレイングマネージャーとして部門の予算や工数を見る立場にあるので、ここはシビアに考えざるを得ません。手動更新を続けた場合の影響を整理してみましょう。

項目 現場と管理のリアルな影響
証明書費用 購入総額自体には大きな変動はないと見込んでいます。(経理へは「予算は維持できます」と説明はつきます)
管理工数 問題はここです。年1回の更新が年8回以上になる計算です。CSD作成、申請、審査対応、サーバーへのインストール、再起動…それぞれの作業時間は短くても「チリツモ」で人件費が急増します。現場の時間を奪うのは大きな痛手です。
失効リスク 更新頻度が上がるということは、単純に「ヒューマンエラー(更新作業の失念)」の確率が跳ね上がるということです。証明書切れによるサイト閉鎖やサービス停止になった場合、始末書どころか顧客からの信用失墜という取り返しのつかない事態になります。

「気合い」を捨ててACMEで自動化しよう

結論から言うと、もう「カレンダーに予定を入れて手動更新で頑張る」という選択肢は捨てた方がいいです。現場の疲弊を招くだけですし、何より事故の元です。手動管理によるコスト増とリスクを回避するためには、以下のような体制への移行が必須です。

  • ACMEプロトコルの活用: 証明書の発行からインストール、更新までを自動化する標準規約ですね。Let's Encryptなどでお馴染みですが、最近は商用証明書でもACME対応が広がっています。
  • 管理ツールの刷新: 複数サーバーの証明書を一元管理し、ダッシュボードで状況を可視化できるツールの導入を検討・構築します。
  • 運用フローの見直し: 実はここが一番重要かもしれません。「期限が来たら人が動く」という旧来のフローから、「自動更新システムが正常に動いているかを監視する(エラー時のみ人が介入する)」というモダンな運用へのパラダイムシフトです。

インフラの自動化は組む時の面白さもありますが、これは何よりも「ビジネスの継続性を守り、チームの疲弊を防ぐための必須投資」です。

「いや、今のままでも気合いでいけるだろう」と先延ばしにするより、いまの時期から「証明書の短命化によって今の運用では確実に破綻します」と上を説得して、自動化への工数と予算を確保しておくことを強くお勧めします。後で泣きを見るのは現場のエンジニアや私たちですからね。

さて、私も明日の定例で提案するための説得資料でも作りますか。みなさんも早めの準備を。

YouTube LiveのチャットだけをAndroidで別画面表示するアプリを作ってリリースした

YouTube LiveのチャットだけをAndroidで別画面表示するアプリを作ってリリースした

テレビやモニターでYouTube Liveを全画面再生していると、ライブチャットが見えなくなります。スマホでYouTubeアプリを開き直しても動画が再生されてしまう。「Live Chatだけをスマホで別画面表示したい」という需要、ライブ配信を見る人なら絶対あると思っていました。そのまま自分で作ってリリースしました。

作ろうと思ったきっかけ

大画面でライブ配信を見ているとき、Live Chatの流れをリアルタイムで追いたいことがよくあります。でもテレビのフルスクリーン表示ではチャット欄が隠れてしまう。スマホでYouTubeアプリを開き直すと動画が二重再生になって邪魔。

既存のアプリを探してみたのですが、ちょうどいいものが見つからなかったので、自分で作ることにしました。シンプルに「URLを登録したらLive Chatだけが表示される」、それだけのアプリです。

アプリでできること

  • YouTube LiveのURLを登録してLive Chatのみをリアルタイム表示する
  • YouTubeアプリのシェアボタンから直接URLを送って登録できる
  • 動画を再生せずチャット画面だけを表示する
  • テレビ・モニターでライブを見ながらスマホでチャットを追える
ポイント

YouTubeアプリのシェアボタン経由で登録できるのが地味に便利です。URLをコピペする手間がなく、見ているライブ配信をそのまま登録してチャット画面を開けます。

使い方

  1. テレビやモニターでYouTube Liveをフルスクリーン再生する
  2. スマホのYouTubeアプリで同じライブ配信を開き、シェアボタンをタップ
  3. 共有先から「ChatTube」を選択
  4. アプリにLive Chatがリアルタイムで表示される

もちろんURLを直接入力して登録することもできます。動画IDだけでも対応しています。

こんな場面で使える

  • ライブ配信をテレビで見ながら、スマホでLive Chatをリアルタイムに追う
  • PC作業中に別モニターでライブ再生しつつ、スマホでチャットだけ確認する
  • 家族と大画面でライブを見ながら、自分だけチャットを追いたいとき
  • 配信者がチャットの反応を別画面で確認しながら配信するとき
セカンドスクリーン活用

テレビのリモコンでYouTubeを操作しているとチャット欄へのアクセスが面倒です。このアプリを使えばスマホをLive Chat専用画面として使えます。

ダウンロード

Android向けに Google Play で公開しています。無料でダウンロードできます(広告あり)。

Google Play で「ChatTube」を見る

不具合・要望があればコメントかレビューで教えてもらえると助かります。使ってみた感想もぜひ。

LangChainでAI駆動開発を自動化する:要件定義からテストまでフェーズ別エージェント実装ガイド

LangChainでAI駆動開発を自動化する:要件定義からテストまでフェーズ別エージェント実装ガイド

うちのチームに新しいメンバーが入ってきて、「LangChainを使えば開発全部自動化できますよね?」と言い出しまして。気持ちはわかるんですが、そこには大きな落とし穴があります。要件定義で使うべき思考と、テストケースを考えるときの思考は、根本的に違う。それを1つのエージェントに丸投げするとどうなるか——自分で試して痛い目を見ました。この記事では、フェーズごとに専門エージェントを分業させるアーキテクチャをLangChainで実装する方法を、実際に動くコードとともに解説します。

注目ポイント

エージェントはステートレスに設計し、フェーズ間の引き渡しは「ドキュメントオブジェクト」で行うのが安定運用の鍵。コンテキストを引き継ぐのではなく、前フェーズの成果物を次フェーズへの入力として渡す。

なぜ「1エージェント・全工程」は破綻するのか

LangChainのReActエージェントやLCELチェーンを使って「ユーザーの要望を入力したら設計書とコードとテストが出てくる」パイプラインを作ろうとした経験がある方は多いと思います。最初の数回は動く。でも少し複雑な要件を入れた途端、出力が崩れ始める。

原因はシンプルで、LLMのコンテキストウィンドウには限界があるからです。要件定義の議論をしながら、同時に実装コードの詳細まで考えさせると、どちらも中途半端になる。さらに問題なのは、エラーになるのではなく「それっぽい何か」が出力されてしまうこと。これが一番タチが悪い。

よくある失敗パターン

「1つの巨大プロンプトに全フェーズの指示を詰め込む」アプローチ。最初は動いて見えるが、要件が複雑になった瞬間に崩壊する。プロンプトエンジニアリングで解決しようとするより、設計を分けるほうが早い。

全体設計と前提環境

今回実装する構成はこうなります。4つの専門エージェントを順番に実行し、各エージェントの出力をPydanticモデルで型定義した「ドキュメントオブジェクト」として次のエージェントに渡します。

# 全体のフロー
ユーザー入力(要件メモ)
    ↓
RequirementsAgent  → RequirementsDoc(曖昧さリスト・確定仕様)
    ↓
DesignAgent        → DesignDoc(アーキテクチャ・API定義・DB設計)
    ↓
CodingAgent        → CodeDoc(実装コード・ファイル構成)
    ↓
TestAgent          → TestDoc(テストケース・テストコード)

前提環境

pip install langchain langchain-community langchain-core
pip install pydantic ollama

# Ollamaでモデルを起動しておく
ollama run gpt-oss:20b

OpenAI APIを使う場合は langchain-openai に差し替えるだけです。今回はローカルLLM(Ollama)ベースで書きますが、モデル部分は差し替え可能な設計にします。

要件定義エージェント:曖昧さを構造化する

要件定義エージェントの仕事は2つ。ひとつは入力テキストから曖昧な箇所を検出して質問リストを生成すること、もうひとつは確定した仕様を構造化されたオブジェクトに変換することです。

from langchain_community.llms import Ollama
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import JsonOutputParser
from pydantic import BaseModel, Field
from typing import List

# 出力の型定義
class RequirementsDoc(BaseModel):
    ambiguities: List[str] = Field(description="曖昧な点・確認が必要な事項のリスト")
    confirmed_specs: List[str] = Field(description="確定した仕様のリスト")
    constraints: List[str] = Field(description="技術的・ビジネス的制約のリスト")
    summary: str = Field(description="要件の概要(2〜3文)")

class RequirementsAgent:
    def __init__(self, model_name: str = "gpt-oss:20b"):
        self.llm = Ollama(model=model_name, temperature=0.1)
        self.parser = JsonOutputParser(pydantic_object=RequirementsDoc)
        self.prompt = ChatPromptTemplate.from_messages([
            ("system", """あなたはシニアのシステムアナリストです。
入力された要件テキストを分析し、以下を必ずJSON形式で出力してください。
- 定義が曖昧で確認が必要な項目
- 確定した仕様
- 技術的・ビジネス的制約
- 要件の概要

{format_instructions}"""),
            ("human", "以下の要件を分析してください:\n\n{requirements_text}")
        ])

    def run(self, requirements_text: str) -> RequirementsDoc:
        chain = self.prompt | self.llm | self.parser
        result = chain.invoke({
            "requirements_text": requirements_text,
            "format_instructions": self.parser.get_format_instructions()
        })
        return RequirementsDoc(**result)
設計のポイント

temperature=0.1 に設定するのがミソ。要件定義は「創造性」より「網羅性・一貫性」が重要なので、低めのtemperatureで安定した出力を得る。

設計エージェント:仕様書からアーキテクチャを生成する

設計エージェントは RequirementsDoc を受け取り、アーキテクチャ案・API定義・DBスキーマを出力します。ここでのポイントは、前フェーズの「曖昧さリスト」も一緒に渡すこと。曖昧なままの仕様を無視した設計を出力させないためです。

class DesignDoc(BaseModel):
    architecture: str = Field(description="アーキテクチャの説明(テキスト)")
    api_endpoints: List[dict] = Field(description="APIエンドポイント定義リスト")
    db_schema: List[dict] = Field(description="DBテーブル定義リスト")
    tech_stack: List[str] = Field(description="使用技術スタック")
    assumptions: List[str] = Field(description="設計上の前提・仮定(曖昧仕様への対応)")

class DesignAgent:
    def __init__(self, model_name: str = "gpt-oss:20b"):
        self.llm = Ollama(model=model_name, temperature=0.2)
        self.parser = JsonOutputParser(pydantic_object=DesignDoc)
        self.prompt = ChatPromptTemplate.from_messages([
            ("system", """あなたはシニアのソフトウェアアーキテクトです。
確定仕様と制約に基づいてシステム設計を行い、JSON形式で出力してください。
曖昧な仕様については、設計上の前提として assumptions に明記してください。

{format_instructions}"""),
            ("human", """確定仕様: {confirmed_specs}
制約: {constraints}
曖昧な点(前提として扱う): {ambiguities}
要件概要: {summary}""")
        ])

    def run(self, req_doc: RequirementsDoc) -> DesignDoc:
        chain = self.prompt | self.llm | self.parser
        result = chain.invoke({
            "confirmed_specs": "\n".join(req_doc.confirmed_specs),
            "constraints": "\n".join(req_doc.constraints),
            "ambiguities": "\n".join(req_doc.ambiguities),
            "summary": req_doc.summary,
            "format_instructions": self.parser.get_format_instructions()
        })
        return DesignDoc(**result)

実装エージェント:設計書をコードに落とす

実装エージェントは DesignDoc のAPIエンドポイント定義とDBスキーマを受け取り、コードを生成します。全体を一度に生成しようとするとコンテキスト超過するので、エンドポイントごとに分割して呼び出す設計にしています。

class CodeDoc(BaseModel):
    files: List[dict] = Field(description="生成したファイルのリスト(filename, content)")
    setup_instructions: str = Field(description="セットアップ手順")

class CodingAgent:
    def __init__(self, model_name: str = "gpt-oss:20b"):
        self.llm = Ollama(model=model_name, temperature=0.15)
        self.prompt = ChatPromptTemplate.from_messages([
            ("system", """あなたはシニアのバックエンドエンジニアです。
設計書に基づいてPythonコードを生成してください。
- FastAPIを使用
- 型ヒントを必ず付ける
- docstringは英語で記述
- エラーハンドリングを適切に実装"""),
            ("human", """以下のAPIエンドポイントを実装してください:
{endpoint}

DBスキーマ: {db_schema}
技術スタック: {tech_stack}""")
        ])

    def run(self, design_doc: DesignDoc) -> CodeDoc:
        all_files = []
        # エンドポイントごとに分割生成
        for endpoint in design_doc.api_endpoints:
            chain = self.prompt | self.llm
            code = chain.invoke({
                "endpoint": str(endpoint),
                "db_schema": str(design_doc.db_schema),
                "tech_stack": ", ".join(design_doc.tech_stack)
            })
            all_files.append({
                "filename": f"api_{endpoint.get('path','').strip('/').replace('/','_')}.py",
                "content": code
            })
        return CodeDoc(
            files=all_files,
            setup_instructions=f"Tech stack: {', '.join(design_doc.tech_stack)}"
        )

テストエージェント:コードからテストを生成する

テストエージェントは生成されたコードファイルを受け取り、pytestベースのテストコードを生成します。ここでもファイルごとに分割呼び出しです。一度に全コードを渡すとテストの質が落ちる。

class TestDoc(BaseModel):
    test_files: List[dict] = Field(description="テストファイルのリスト(filename, content)")
    coverage_notes: List[str] = Field(description="カバレッジ上の注意点・未テスト箇所")

class TestAgent:
    def __init__(self, model_name: str = "gpt-oss:20b"):
        self.llm = Ollama(model=model_name, temperature=0.1)
        self.prompt = ChatPromptTemplate.from_messages([
            ("system", """あなたはQAエンジニアです。pytestを使ったテストコードを生成してください。
- 正常系・異常系・境界値を網羅
- モックは unittest.mock を使用
- テスト関数名は test_[動詞]_[対象]_[条件] の形式で"""),
            ("human", "以下のコードのテストを生成してください:\n\n{source_code}")
        ])

    def run(self, code_doc: CodeDoc) -> TestDoc:
        test_files = []
        for file in code_doc.files:
            chain = self.prompt | self.llm
            test_code = chain.invoke({"source_code": file["content"]})
            test_files.append({
                "filename": f"test_{file['filename']}",
                "content": test_code
            })
        return TestDoc(
            test_files=test_files,
            coverage_notes=["境界値テストは手動での確認を推奨"]
        )

オーケストレーション:4エージェントをパイプラインで繋ぐ

最後に、4つのエージェントを順番に実行するオーケストレーターを実装します。各フェーズの結果をログに残しておくと、どこで品質が落ちたか後から追跡できます。

import json
from datetime import datetime
from pathlib import Path

class DevPipeline:
    def __init__(self, model_name: str = "gpt-oss:20b", output_dir: str = "output"):
        self.req_agent = RequirementsAgent(model_name)
        self.design_agent = DesignAgent(model_name)
        self.coding_agent = CodingAgent(model_name)
        self.test_agent = TestAgent(model_name)
        self.output_dir = Path(output_dir)
        self.output_dir.mkdir(exist_ok=True)

    def run(self, requirements_text: str) -> dict:
        timestamp = datetime.now().strftime("%Y%m%d_%H%M%S")
        results = {}

        print("▶ Phase 1: 要件定義エージェント")
        req_doc = self.req_agent.run(requirements_text)
        results["requirements"] = req_doc.model_dump()
        self._save(f"{timestamp}_requirements.json", results["requirements"])
        print(f"  曖昧な点: {len(req_doc.ambiguities)}件 / 確定仕様: {len(req_doc.confirmed_specs)}件")

        print("▶ Phase 2: 設計エージェント")
        design_doc = self.design_agent.run(req_doc)
        results["design"] = design_doc.model_dump()
        self._save(f"{timestamp}_design.json", results["design"])
        print(f"  APIエンドポイント: {len(design_doc.api_endpoints)}件")

        print("▶ Phase 3: 実装エージェント")
        code_doc = self.coding_agent.run(design_doc)
        results["code"] = code_doc.model_dump()
        self._save(f"{timestamp}_code.json", results["code"])
        print(f"  生成ファイル: {len(code_doc.files)}件")

        print("▶ Phase 4: テストエージェント")
        test_doc = self.test_agent.run(code_doc)
        results["tests"] = test_doc.model_dump()
        self._save(f"{timestamp}_tests.json", results["tests"])
        print(f"  テストファイル: {len(test_doc.test_files)}件")

        return results

    def _save(self, filename: str, data: dict):
        with open(self.output_dir / filename, "w", encoding="utf-8") as f:
            json.dump(data, f, ensure_ascii=False, indent=2)

# 実行例
if __name__ == "__main__":
    pipeline = DevPipeline(model_name="gpt-oss:20b")
    requirements = """
    ユーザー管理APIを作りたい。
    ユーザーの登録・ログイン・プロフィール更新ができること。
    認証はJWTを使う。DBはPostgreSQLを想定。
    """
    results = pipeline.run(requirements)
運用Tips

各フェーズの出力をJSONファイルとして保存しておくと、途中のフェーズからやり直せます。要件定義だけ人間がレビューして修正し、設計以降を再実行する、という使い方が現実的です。

実運用での限界と人間の介在ポイント

このパイプラインを実際に使ってみて気づいた限界をいくつか挙げておきます。まず、要件が曖昧なまま進むと雪だるま式に品質が落ちる。RequirementsAgentが出した曖昧さリストを無視してDesignAgentに進むと、設計の前提が崩れ、コードもテストも連鎖的に歪みます。

もうひとつは、テストエージェントのエッジケース認識が甘いこと。正常系は網羅してくれますが、「このAPIに不正なJWTを渡したらどうなるか」といった攻撃的なテストケースは自分で足す必要があります。コストの話をすると、ローカルLLMなのでAPI費用はゼロですが、20Bモデルで全フェーズ回すと5〜10分かかります。小規模プロジェクトなら十分実用的な速度です。

人間が介在すべきポイントは明確で、Phase 1終了後の曖昧さレビューPhase 3終了後のコードレビューの2点。それ以外はエージェントに任せて、人間は判断に集中する——これがこのアーキテクチャの狙いです。

Google Antigravityで変わるAI駆動開発:フェーズ別エージェント分業の実践

Google Antigravityで変わるAI駆動開発:フェーズ別エージェント分業の実践

先月、お客さんから「AI使えばもう設計書いらないですよね?」と言われまして。思わず苦笑いしてしまいました。確かに、Copilotやら何やらで「コードを書く速度」は上がった。でも要件定義でAIに曖昧な指示を投げると、自信満々で的外れなものを返してくる。「1つのAIに全部やらせる」という発想は、もう少し慎重に考えたほうがいいんじゃないかと思っていたんですよね。そこに出てきたのが、GoogleのAntigravityです。

注目ポイント

Antigravityの本質は「コード補完の強化」ではなく、「フェーズごとに専門エージェントを分業させ、人間はレビューに集中する」という設計思想の転換にある。

なぜ「1つのAI」では限界が来るのか

CursorやGitHub Copilotを使っている方なら実感があると思いますが、あのツールは基本的に「今書いているコードの文脈」しか見ていません。要件定義の話をしながら同時に実装コードを提案させると、途端にコンテキストが混乱する。結果、中途半端な出力になる。

これは設計の問題でもあって、要件定義・設計・実装・テストはそれぞれ「考え方の粒度」が全然違います。要件定義は「何を作るか」の議論、設計は「どう作るか」の整理、実装は「書く」作業、テストは「壊す」作業。これを1つのLLMに同時にやらせようとするから歪みが出る。Antigravityはここに目を向けた、という点で面白い。

Google Antigravityとは何者か

2025年11月にGoogleが発表したエージェント・ファーストのIDEです。VS Codeフォークなので、今使っている拡張機能や設定はそのまま使えます。この点はチームへの展開コストが低くて助かりますね。

特徴的な機能は3つです。エージェント・マネージャーでバックグラウンドの複数エージェントを並行稼働させられること、ブラウザ・エージェントがAI自身でドキュメントを調査してスクリーンショットまで撮れること、そしてArtifactsでAIの処理結果をタスクリスト・プラン・動画として可視化できること。この3つが噛み合うと、開発フローが変わります。

要件定義フェーズ:曖昧さを炙り出すエージェント

要件定義で一番つらいのは「曖昧なまま進んでしまうこと」です。お客さんの言う「使いやすいUI」って何なのか、「リアルタイム」って何ミリ秒を指しているのか。ここを詰め切れないまま設計に入ると、後で痛い目を見ます。

Antigravityでは、要件ヒアリングのメモや議事録を投げると、エージェントが「この要件は定義が曖昧です。以下を確認してください」という質問リストをArtifactsとして出力します。人間がやると遠慮が入るこの「ツッコミ」を、AIに任せるのは案外合理的です。

注意

エージェントが出した質問リストをそのままお客さんに送るのは危険です。技術的すぎる、あるいは失礼な表現が混じることがある。あくまで「人間がレビューする素材」として使うのが正解です。

設計フェーズ:Artifactsで叩き台を作らせる

設計フェーズでのAntigravityの使い方は「叩き台の高速生成」です。確定した要件をまとめたドキュメントを渡すと、エージェントがアーキテクチャ案・テーブル設計・APIエンドポイント一覧をArtifactsとして出力します。

これが地味に効いてくる。設計レビューって、ゼロから書いたものを見るより「これでいいか?」と叩き台を渡された方が指摘しやすいんですよね。エンジニア全員が設計を書ける訳じゃないし、特にジュニアメンバーは「何から書けばいいかわからない」という状態になりやすい。Artifactsが最初のたたき台を作ってくれるだけで、議論の密度が上がります。

実装フェーズ:ブラウザ・エージェントに調査を丸投げする

実装中に一番時間を取られるのって、コードを書くことより「ドキュメントを読む時間」じゃないかと思っています。新しいライブラリを使うとき、公式ドキュメントを読んで、Stack Overflowを漁って、GitHubのIssueを確認して…。

Antigravityのブラウザ・エージェントは、AIが自分でブラウザを操作してドキュメントを調査し、「このライブラリでやりたいことを実現するコード例」を持ってきます。自分が読む必要がなくなる、とは言いませんが、調査の起点として使うと明らかに速い。うちのチームでは「まずAntigravityに調べさせて、人間が裏取りする」という流れに変わりつつあります。

テストフェーズ:バックグラウンドで回し続ける

テストエージェントをバックグラウンドで動かしながら実装を続ける、というのがAntigravityの真骨頂です。実装中にエージェントが並行して「このコードに対するテストケース案」を生成し続けてくれる。

正直、テストを書く習慣がないチームには少し敷居が高いですが、「テストの素材をAIに作らせて、人間が選ぶ」というプロセスなら受け入れやすい。全部信用するのは危ないですが(エッジケースの認識が甘いことがある)、カバレッジの穴を埋める用途には十分使えます。

実践メモ

バックグラウンドエージェントはリソースを食います。ローカルマシンのスペックが低いと逆に開発体験が悪化します。チーム導入前にスペック要件を確認しておくのが無難です。

人間がやるべき仕事は何か

ここまで書いてきて思うのは、Antigravityを使いこなすには「何をエージェントに任せ、何を自分で判断するか」のタスク設計センスが問われるということです。ツールが変わっても、要件の本質を掴む力や、設計の良し悪しを判断する経験値は、引き続き人間の仕事です。

コストの話をすると、現時点でAntigravityのエンタープライズプランは月額が安くない。ただ、要件定義のやり直しが1回減るだけで、十分に元が取れる規模感の案件が多いのも事実です。まずは小規模プロジェクトで試して、上司への稟議のネタを作るところから始めるのが現実的かなと思っています。

Androidで縦横斜めを自由スクロール!KotlinでカスタムViewGroup「VHScrollView」を実装する

Androidで縦横斜めを自由スクロール!KotlinでカスタムViewGroup「VHScrollView」を実装する

はじめに

Androidアプリを開発していると、「縦方向だけでなく横方向にも、しかも斜め方向にも自由にスクロールできるViewが欲しい」という場面に出くわすことがあります。地図や大きなスプレッドシート、画像ビューアなどがその典型です。標準の ScrollView は縦方向のみ、HorizontalScrollView は横方向のみと、それぞれ一方向にしか対応しておらず、組み合わせ次第では相互のタッチイベントが干渉しあい、思うような動作が得られないことも少なくありません。

本記事では、Kotlinで FrameLayout を継承して構築した VHScrollView(Vertical-Horizontal ScrollView)クラスの設計思想と実装の全コードを解説します。GestureDetectorCompatOverScroller を組み合わせたAndroid標準コンポーネント活用の実践的な例として、カスタムViewのアーキテクチャを理解したい方にも最適な内容です。

基礎知識・概要

Key Concept

GestureDetectorCompat にジェスチャー解析を委譲しつつ、OverScroller で慣性スクロールの物理計算をOSに任せる「責務の分離」設計が、少ないコード量でSwipe/Fling両対応を可能にしています。

Androidのカスタムスクロールビューを実装する際に欠かせない2つのクラスを整理します。

GestureDetectorCompat: MotionEventの生ストリームを受け取り、「タッチダウン」「ドラッグ(onScroll)」「フリック(onFling)」などの高レベルなジェスチャーイベントに変換してくれるユーティリティクラスです。自力でタッチ座標の差分を計算したり、感度を実装する必要がなく、Androidの標準的な判定ルールを再利用できます。

OverScroller: フリング(弾き飛ばし)時の速度減衰・慣性アニメーションの座標計算を担当するクラスです。毎フレームの描画タイミングで computeScrollOffset() を呼ぶことで現在の理想スクロール位置を取得でき、端末のリフレッシュレートに合わせた滑らかな慣性アニメーションを、OSが計算してくれます。このふたつを組み合わせることで、スクロールロジックの本質(どこまでスクロールするか・何が端か)だけを書けばよくなります。

主要機能と詳細

2つのGestureDetectorの役割分担

VHScrollView の設計上の面白い点は、GestureDetectorCompat を用途別に2つ保持していることです。

  • interceptDetector: onInterceptTouchEvent 専用。子Viewにイベントが届く前に「これはスクロール動作か?」を検知し、isScrolling フラグを立てるためだけに使われます。
  • gestureDetector: onTouchEvent 専用。インターセプト後に配送されるイベントを受け取り、実際のスクロール移動(onScroll)およびフリング開始(onFling)処理を行います。

この分離により、子Viewが独自のタッチ処理(クリック等)を持っていても、サコンフリクトを最小限に抑えた自然なUXを保てます。

onMeasureとUNSPECIFIEDの意味

スクロールビューの根幹となる重要な処理が onMeasure 内の子ビューへの MeasureSpec.UNSPECIFIED 指定です。通常、親Viewは子Viewに「最大でこのサイズまでの表示を許可する」という制約(MeasureSpec)を渡します。しかしスクロールビューがそれをやってしまうと、子ビューが画面サイズに収まるよう自ら縮小してしまい、スクロールする意味がなくなります。UNSPECIFIED(制約なし)を渡すことで、「好きなサイズになっていい」と子ビューに伝え、その結果えられた子ビューの measuredWidth/Height と自身の表示領域との差が、スクロール可能な最大移動量(maxX / maxY)になります。

doScrollByとdoFlingの役割

doScrollBy はドラッグ中の指の移動量(distanceX/Y)をそのままスクロール位置に反映する最もシンプルな関数です。ここで coerceIn(0, maxX) によるクランプ処理(範囲固定)を行い、子Viewの端を超えてスクロールされないようにしています。

一方 doFling では、指を弾いた瞬間の速度(velocityX/Y)を OverScroller.fling() に渡し、以後の座標計算をOSに委ねます。GestureDetectorの返す速度は「指の移動方向」なので、スクロール(コンテンツの移動方向は逆)に合わせてマイナスに反転しているのがポイントです。

実装・実践ガイド:コードの詳細と使い方

computeScrollによるアニメーションループ

Androidのレンダリングループと OverScroller を繋ぐ「のり」が computeScroll() のオーバーライドです。フレームごとのVSYNC信号に合わせて呼ばれるこのメソッドで、scroller.computeScrollOffset() を呼ぶと OverScroller が減速計算を行い、現在フレームでの理想座標(currX/Y)を返してくれます。それを scrollTo() で適用し、最後に ViewCompat.postInvalidateOnAnimation(this) で次フレームの描画を再予約する、という無限ループでアニメーションが継続します。アニメーション終了時は computeScrollOffset()false を返すためループが自然に終了します。

XMLレイアウトへの組み込み方法

使い方はシンプルです。スクロールさせたい大きなビューを、VHScrollView の直下の子(1つだけ)として配置するだけです。

<com.example.vhscrollview.VHScrollView
    android:layout_width="match_parent"
    android:layout_height="match_parent">

    <!-- スクロールさせたい巨大なコンテンツView -->
    <ImageView
        android:layout_width="3000dp"
        android:layout_height="2000dp"
        android:src="@drawable/big_map" />

</com.example.vhscrollview.VHScrollView>

これだけで、ユーザーが指を動かした方向(縦・横・斜め)に合わせた自然なスクロールと、指を弾いた際のフリング慣性アニメーションが動作します。

依存関係の追加(build.gradle)

本実装は AndroidX Core の ViewCompatGestureDetectorCompat を利用します。build.gradle(またはbuild.gradle.kts)の dependencies ブロックに以下が含まれていることを確認してください。

dependencies {
    implementation("androidx.core:core-ktx:1.12.0")
}

よくある課題と解決策

注意点

子Viewが RecyclerView など独自スクロールを持つ場合、タッチイベントの競合に注意が必要です。

子ViewにクリックやRecyclerViewが共存する場合

onInterceptTouchEvent でスクロール意図を検知した後にインターセプトする設計により、短いタップは子Viewに届きます。ただし、子View自体がスクロール可能な場合(RecyclerView など)は、ネストスクロールの競合が発生します。その場合は NestedScrollingParent3 インターフェースを追加実装し、requestDisallowInterceptTouchEvent の仕組みを組み合わせた制御が必要です。

端の「バウンス」エフェクトを追加する

現状の実装はコンテンツ端でピタッと止まる設計です(クランプ処理)。iOS風の「端を超えて少し伸びて戻る」バウンスエフェクトを追加したい場合は、OverScroller.fling() に オーバースクロールの許容量を渡す overX/overY パラメーターを設定し、EdgeEffect クラスを組み合わせることで実現できます。

アクセシビリティ(a11y)への対応

カスタムスクロールViewはスクリーンリーダー(TalkBack)からのスクロール操作が考慮されていません。ViewCompat.setAccessibilityDelegate を使ってスワイプアクションを定義するか、onInitializeAccessibilityNodeInfo をオーバーライドしてスクロール可能であることをアクセシビリティツリーに通知することが求められます。

まとめ

本記事では、FrameLayout を継承したカスタムViewGroup「VHScrollView」のKotlin実装を解説しました。設計のポイントを振り返ります。

  • インターセプト用と操作用で GestureDetectorを責務分離 し、子Viewとのタッチ競合を最小化。
  • MeasureSpec.UNSPECIFIED で子Viewを 「好きなサイズ」で計測 し、スクロール可能領域を正しく算出。
  • OverScroller に物理演算を委譲し、computeScroll() ループで OSネイティブ品質の慣性スクロール を実現。

この設計パターンは縦横スクロールに限らず、カスタムジェスチャー操作全般に応用が利きます。地図ビューアや大型レイアウトの閲覧UI、図面エディタのベースコンポーネントとしてぜひ活用してみてください。

完全なソースコード(VHScrollView.kt)

以下に VHScrollView.kt の完全なソースコードを掲載します。パッケージ名は各自のプロジェクトに合わせて変更してください。

package com.example.vhscrollview

import android.content.Context
import android.util.AttributeSet
import android.view.GestureDetector
import android.view.MotionEvent
import android.widget.FrameLayout
import android.widget.OverScroller
import androidx.core.view.GestureDetectorCompat
import androidx.core.view.ViewCompat

/**
 * 縦・横・斜めに自由にスクロールできるカスタム ViewGroup。
 *
 * 設計方針:
 * - [FrameLayout] を継承し、直下の子ビューを1つだけ持つ([android.widget.ScrollView] と同じ制約)。
 * - [GestureDetectorCompat] に `MotionEvent` の解析を委譲し、
 *   `onScroll`(ドラッグ移動量)と `onFling`(弾き初速)コールバックだけを処理する。
 * - [OverScroller] に X/Y の速度と限界値を渡し、OS 標準の慣性スクロール計算を利用する。
 */
class VHScrollView @JvmOverloads constructor(
    context: Context,
    attrs: AttributeSet? = null,
    defStyleAttr: Int = 0
) : FrameLayout(context, attrs, defStyleAttr) {

    private val scroller = OverScroller(context)

    /**
     * onInterceptTouchEvent でドラッグを検知するための専用 GestureDetector。
     * onScroll が呼ばれた = スクロール意図あり → インターセプトフラグを立てる。
     */
    private var isScrolling = false
    private val interceptDetector = GestureDetectorCompat(
        context,
        object : GestureDetector.SimpleOnGestureListener() {
            override fun onDown(e: MotionEvent): Boolean = true
            override fun onScroll(
                e1: MotionEvent?, e2: MotionEvent, distanceX: Float, distanceY: Float
            ): Boolean {
                isScrolling = true
                return true
            }
        }
    )

    private val gestureDetector = GestureDetectorCompat(
        context,
        object : GestureDetector.SimpleOnGestureListener() {

            /**
             * タッチダウン時にフリングアニメーションを止める。
             * `onScroll` / `onFling` を受け取るには true を返す必要がある。
             */
            override fun onDown(e: MotionEvent): Boolean {
                if (!scroller.isFinished) {
                    scroller.abortAnimation()
                }
                return true
            }

            /**
             * ドラッグ中に呼ばれる。指の移動量(distanceX, distanceY)をそのままスクロールに反映する。
             */
            override fun onScroll(
                e1: MotionEvent?,
                e2: MotionEvent,
                distanceX: Float,
                distanceY: Float
            ): Boolean {
                doScrollBy(distanceX.toInt(), distanceY.toInt())
                return true
            }

            /**
             * 指を弾いた時に呼ばれる。フリングの初速を [OverScroller] に渡し、慣性計算を開始する。
             * GestureDetector が返す velocityX/Y は「指の速度」なので、スクロール方向は反転する。
             */
            override fun onFling(
                e1: MotionEvent?,
                e2: MotionEvent,
                velocityX: Float,
                velocityY: Float
            ): Boolean {
                doFling(-velocityX.toInt(), -velocityY.toInt())
                return true
            }
        }
    )

    // -------------------------------------------------------------------------
    // Measure
    // -------------------------------------------------------------------------

    /**
     * 子ビューを [MeasureSpec.UNSPECIFIED] で計測する。
     * これにより、親の画面サイズを超えた大きな子ビューも本来のサイズで計測される。
     */
    override fun onMeasure(widthMeasureSpec: Int, heightMeasureSpec: Int) {
        super.onMeasure(widthMeasureSpec, heightMeasureSpec)
        if (childCount == 0) return

        val child = getChildAt(0)
        val unspecified = MeasureSpec.makeMeasureSpec(0, MeasureSpec.UNSPECIFIED)
        child.measure(unspecified, unspecified)
    }

    // -------------------------------------------------------------------------
    // Intercept
    // -------------------------------------------------------------------------

    /**
     * 子Viewよりも先にタッチイベントを確認し、ドラッグと判断したらインターセプト(横取り)する。
     * インターセプト後は以降のイベントが [onTouchEvent] に直接届くようになる。
     */
    override fun onInterceptTouchEvent(ev: MotionEvent): Boolean {
        // ACTION_CANCEL / ACTION_UP でフラグをリセット
        if (ev.action == MotionEvent.ACTION_CANCEL || ev.action == MotionEvent.ACTION_UP) {
            isScrolling = false
        }
        interceptDetector.onTouchEvent(ev)
        return isScrolling
    }

    // -------------------------------------------------------------------------
    // Touch
    // -------------------------------------------------------------------------

    override fun onTouchEvent(event: MotionEvent): Boolean {
        return gestureDetector.onTouchEvent(event) || super.onTouchEvent(event)
    }

    // -------------------------------------------------------------------------
    // Scroll
    // -------------------------------------------------------------------------

    /**
     * 現在位置に [dx], [dy] を加算してスクロール位置を更新する。
     * 0 〜 maxScroll の範囲にクランプすることで画面端を超えないようにする。
     */
    private fun doScrollBy(dx: Int, dy: Int) {
        val child = getChildAt(0) ?: return
        val maxX = (child.measuredWidth - width).coerceAtLeast(0)
        val maxY = (child.measuredHeight - height).coerceAtLeast(0)
        scrollTo(
            (scrollX + dx).coerceIn(0, maxX),
            (scrollY + dy).coerceIn(0, maxY)
        )
    }

    /**
     * [OverScroller.fling] に X/Y の初速と限界値を設定し、慣性スクロールを開始する。
     * 実際の座標反映は [computeScroll] で毎フレーム行う。
     */
    private fun doFling(velocityX: Int, velocityY: Int) {
        val child = getChildAt(0) ?: return
        val maxX = (child.measuredWidth - width).coerceAtLeast(0)
        val maxY = (child.measuredHeight - height).coerceAtLeast(0)

        scroller.fling(
            scrollX, scrollY,
            velocityX, velocityY,
            0, maxX,
            0, maxY
        )
        ViewCompat.postInvalidateOnAnimation(this)
    }

    // -------------------------------------------------------------------------
    // Animation loop
    // -------------------------------------------------------------------------

    /**
     * [ViewCompat.postInvalidateOnAnimation] によるフレームごとに呼ばれる。
     * [OverScroller] が計算した現在座標を取り出し、[scrollTo] で位置を確定する。
     * アニメーションが続く間は次フレームの描画を再予約する。
     */
    override fun computeScroll() {
        super.computeScroll()
        if (!scroller.computeScrollOffset()) return

        val child = getChildAt(0)
        val maxX = child?.let { (it.measuredWidth - width).coerceAtLeast(0) } ?: 0
        val maxY = child?.let { (it.measuredHeight - height).coerceAtLeast(0) } ?: 0

        scrollTo(
            scroller.currX.coerceIn(0, maxX),
            scroller.currY.coerceIn(0, maxY)
        )
        ViewCompat.postInvalidateOnAnimation(this)
    }
}