SimpleLoggerをSPMに公開しました — コツコツ、ここからはじまる

SimpleLoggerをSPMに公開しました — コツコツ、ここからはじまる

勢いで作った小さなライブラリを、ついにSwift Package Manager (SPM)に公開しました。
名前は「SimpleLogger」。
その名の通り、ただログを出すだけの、とてもシンプルなロガーです。


なんで作ったのか

開発中、print()でログを出すことが多いんですが、
「もう少しだけ使いやすく、ちょっと整った形で出したい」
そんな軽い気持ちで書き始めたのがきっかけです。

機能的にはとても単純。
ログレベルを分けたり、日付を出したり。
どれも“便利”と呼ぶにはまだまだなレベルですが、
「自分がよく使う形」に整えるのは意外と楽しい。


SPMに登録してみた

「せっかくだし公開してみよう」と思い、勢いでSPM対応にしました。
手順自体は簡単なんですが、
実際に「パッケージ名で検索して出てくる」のは、なんだか少し嬉しい瞬間ですね。


これから

正直、今のSimpleLoggerは本当にシンプルです。
でも、こういう“ちょっとした自作ツール”が積み重なっていくと、
自分専用の開発環境がどんどん育っていく気がしています。

これが、コツコツ始める第一歩。
時間をかけて少しずつ、使える形に育てていきます。


📦 SimpleLogger on GitHub
👉 https://github.com/kixking/SimpleLogger


※AIに書いてもらいました。

Google Pixel紹介プログラム

 

Pixel紹介プログラムで友だちと一緒にお得に!10%割引キャンペーン

Google Pixel を購入するなら、今がチャンス!
Google が実施している Pixel紹介プログラム を使えば、あなたも友だちもお得にPixelを手に入れられます。

Pixel紹介プログラムとは?

Pixel紹介プログラムは、既にPixelを持っている人が紹介コードを友だちに伝えることで、
紹介された友だちは10%割引でPixelを購入できる特典がもらえるキャンペーンです。

さらに、紹介した側も後日 Google ストアで使えるクレジットをゲットできます。
つまり、お互いにメリットがあるWin-Winなキャンペーンなんです。

私の紹介コード(先着順)

👇以下の紹介コードのいずれかを購入画面で入力すると、あなたも10%オフでPixelを購入できます。

お一人さま1コード限りで有効です。すでに使用済みのコードは利用できません。

REF-VJW48WWY8XVGN4FYLLCEYYQ
REF-RO582HST4OW0MIXE04A6867
REF-5JP468T53JGW3TCWIQ6ET35
REF-3KICWALMM2CEKFBRCTYRS5Q
REF-UCQAVRRPC1A1GRVI7MF8M8U

REF-SF91P74N7SPRGWRFBGMA2OR
REF-SK31IMQ8245Y32RJDGW1BJ6
REF-EV5PPVWG3BTZ5XWN0QP1165
REF-83ML3ERHXS8TWYGEQHXCCTI
REF-J1L5TD2XBV5RTGTAA7BSQ1P

有効なコードがなくなる前にお早めにご利用ください!

利用方法はかんたん

  1. Google ストアにアクセス

  2. 欲しい Pixel をカートに追加

  3. 購入手続きの途中で「紹介コードを入力」の欄に、上記のいずれかのコードを入力

  4. 自動で10%割引が適用されます

注意点

  • 紹介コードには有効期限があります

  • コードは先着順で使用され、使用済みのコードは無効となります。

  • 在庫状況によってはキャンペーンが早期終了する可能性があります。

まとめ

Pixelはカメラ性能やGoogle独自のAI機能が魅力的なスマートフォンです。
どうせ買うなら、紹介プログラムを使ってお得に購入しましょう。

紹介コードをシェアして、10%オフの特典を賢く活用してください!

DCJPYについて考えてみる。

 ゆうちょ銀行もDCJPYに参加するらしく、2026年には対応開始するとの事

日本最大の口座数を持つ、銀行が対応する事でどのような、メリット・デメリットが発生するのか?まとめてみました。


メリット

1. 利用者の裾野が一気に広がる

  • ゆうちょ銀行は 約1億2,000万口座約190兆円の預金残高 を持つ日本最大級の銀行。

  • DCJPY対応により、他銀行と比べて桁違いの潜在ユーザー層が一気にデジタル通貨を利用可能に。

2. 新しい金融サービスの普及加速

  • DCJPYを使った デジタル証券投資NFT購入自治体給付金のデジタル配布 などが現実的に広がる。

  • 特にゆうちょ銀行は高齢者層の利用も多いため、「デジタル通貨が生活に浸透する」大きな契機になる。

3. 資金移動の効率化

  • 従来の銀行振込では時間がかかる場合もあるが、DCJPYなら 即時決済 が可能。

  • 振込手数料削減や、地方自治体からの給付金・補助金を即座に配布できるメリットがある。

4. 金融DX(デジタル化)の推進

  • 銀行預金をトークン化することで、ブロックチェーン上でのプログラマブルマネー が可能に。

  • 例)「特定用途のみで使える補助金」「時間制限つき商品券」などが簡単に実装可能。


デメリット

1. 高齢者層への利用ハードル

  • ゆうちょ銀行はシニアユーザーが非常に多い。

  • DCJPYの仕組み(口座連携、アプリ、ブロックチェーン利用)が理解されにくく、利用者教育やサポート体制が課題になる。

2. システム統合コスト

  • ゆうちょ銀行の既存システムは巨大でレガシー色が強い。

  • DCJPY対応のためのシステム改修・セキュリティ強化に 莫大なコスト が発生する可能性。

3. 利用者保護・規制の整備

  • DCJPYは「預金をトークン化」するため安全性は高いが、利用者が詐欺やハッキング被害に遭うリスクは残る。

  • 法的な消費者保護の枠組み(返金対応や補償制度)が不可欠。

4. ネットワーク間の相互運用性

  • DCJPYは基本的に「許可制ブロックチェーン」で動作する。

  • 他の銀行・他のトークン化ネットワークとどうつなぐか(インターオペラビリティ)が普及の鍵になる。

5. 手数料・収益モデル

  • 即時決済で従来の振込手数料が減少する可能性があり、銀行の収益構造を圧迫する懸念。

  • 逆に新サービス手数料で補う必要がある。



まとめ

メリット
  • 巨大な利用者層が参加することでDCJPYの普及が一気に加速
  • 即時決済・補助金配布など金融DXの実用化が進む

デメリット

  • 高齢者層の利用ハードル
  • 巨大システム改修コストやセキュリティ対策の負担
  • 規制・利用者保護、異なるネットワークとの互換性課題



Ubuntu × GeForce RTX 3090 でローカルLLMを動かす ― Ollama + gpt‑oss:20b + OpenWebUI

Ubuntu 22.04 LTS × GeForce RTX 3090 でローカルLLMを動かす ― Ollama + gpt‑oss:20b + OpenWebUI

はじめに

近年、LLM(大規模言語モデル)をローカルで動かすニーズが高まっています。 本記事では、Ubuntu 22.04 LTSGeForce RTX 3090 を使い、 Ollamagpt‑oss:20b を管理し、OpenWebUI でブラウザベースのチャット UI を構築する手順を紹介します。 GPU アクセラレーションを最大限に活かす設定や、トラブルシューティングのポイントもまとめています。

Ubuntu 環境の準備

2‑1. 基本セットアップ

sudo apt update && sudo apt upgrade -y
sudo apt install -y build-essential git curl wget

2‑2. NVIDIA ドライバと CUDA Toolkit

# 1. ドライバインストール
sudo ubuntu-drivers autoinstall

# 2. CUDA 12.x インストール
wget https://developer.download.nvidia.com/compute/cuda/12.1.0/local_installers/cuda_12.1.0_530.30.02_linux.run
sudo sh cuda_12.1.0_530.30.02_linux.run

`/usr/local/cuda-12.1/bin` を PATH に追加し、`nvcc --version` で確認。

2‑3. cuDNN のインストール

公式サイトから cuDNN 8.x をダウンロードし、`/usr/local/cuda-12.1/` に展開。 `LD_LIBRARY_PATH` に `lib64` を追加。

Ollama のインストールと設定

3‑1. バイナリ取得

curl -fsSL https://ollama.com/install.sh | sh

`/usr/local/bin/ollama` が PATH に入ります。

3‑2. GPU 検出確認

ollama version
# 例: Ollama 0.3.0 (GPU: NVIDIA RTX 3090)

3‑3. デフォルトモデル一覧

ollama list

必要に応じて `ollama pull` でモデルを追加。

gpt‑oss:20b のダウンロードと登録

4‑1. モデル取得

ollama pull gpt-oss:20b

ダウンロード時に SHA256 チェックサムが表示されるので、公式サイトと照合してください。

4‑2. モデル登録

Ollama は自動で登録しますが、手動で確認したい場合は `ollama show gpt-oss:20b` で詳細情報を確認。

OpenWebUI の導入

5‑1. Docker Compose で起動

git clone https://github.com/open-webui/open-webui.git
cd open-webui
cp .env.example .env
# .env で OLLAMA_HOST=http://host.docker.internal:11434 に設定
docker compose up -d

ブラウザで http://localhost:8080 にアクセスすると UI が表示されます。

5‑2. API トークン設定

OpenWebUI から Ollama へ接続する際にトークンが必要な場合は `.env` に OLLAMA_API_KEY=YOUR_TOKEN を追加。 Ollama 側で ollama serve --api-key YOUR_TOKEN を起動しておくと安全です。

GeForce RTX 3090 で推論を高速化

6‑1. CUDA バージョン確認

nvidia-smi

GPU の温度・使用率・メモリ使用量をリアルタイムで確認できます。

6‑2. バッチサイズ調整

gpt‑oss:20b は 20 B パラメータでメモリを多く消費します。 OLLAMA_MAX_BATCH_SIZE を 8〜16 に設定すると、GPU メモリを効率的に使えます。

export OLLAMA_MAX_BATCH_SIZE=12

6‑3. メモリ管理のベストプラクティス

  • --max-memory オプションで GPU メモリ上限を設定(例: --max-memory 24GB)。
  • --gpu-memory で GPU メモリの割り当てを細かく制御。
  • --cpu オプションを使って CPU での推論に切り替えるケースも検討。

6‑4. サンプルスクリプト

import ollama

def chat(prompt):
    response = ollama.chat(
        model="gpt-oss:20b",
        messages=[{"role":"user","content":prompt}],
        stream=True
    )
    for chunk in response:
        print(chunk["content"], end="", flush=True)

if __name__ == "__main__":
    chat("こんにちは、今日の天気は?")

実行時に GPU 使用率が 80% 以上になることが多いです。

ローカルLLMの動作確認

  1. OpenWebUI で質問を入力。
  2. レスポンス時間を測定(ブラウザの開発者ツール → Network)。
  3. CPU/GPU 負荷を htop / nvidia-smi で確認。
  4. トークン生成量は ollama logs で確認可能。

トラブルシューティング

兆候原因対処
CUDA エラードライバ/CUDA バージョン不一致sudo apt install nvidia-driver-535 などで再インストール
モデルダウンロード失敗ネットワーク不安定curl -L で再試行、または --retry オプション
OpenWebUI 接続不可ポート競合docker compose down → docker compose up で再起動
GPU 使用率 0%Ollama が CPU で動作OLLAMA_GPU=1 を設定、または --gpu オプションを確認

まとめ

Ubuntu 22.04 + RTX 3090 + Ollama + gpt‑oss:20b + OpenWebUI の環境構築が完了しました。 GPU アクセラレーションを活かした高速推論と、UI での簡易操作が実現できました。ぜひ、実際の業務や研究に活かしてみてください。

この記事はAIによって作成されました。

GeForce RTX 3090でGemma3:27bをUbuntuで動かす

GeForce RTX 3090でGemma3:27bをUbuntuで動かす

はじめに

近年、大規模言語モデル(LLM)のローカル実行が注目を集めています。クラウド環境に依存せず、オフライン環境でもLLMを利用できるメリットは大きく、特にプライバシーやセキュリティを重視するユーザーにとって魅力的な選択肢です。本記事では、高性能GPUであるGeForce RTX 3090を搭載したUbuntu環境で、Gemma3:27bというオープンソースのLLMをOllamaとOpenWebUIを用いて実行する方法を解説します。

GeForce RTX 3090とローカルLLM

ローカルLLMのパフォーマンスは、GPUの性能に大きく依存します。GeForce RTX 3090は、24GBのVRAMを搭載しており、Gemma3:27bのような大規模モデルを扱うのに十分な性能を備えています。VRAMの容量が大きいほど、より大きなモデルを扱ったり、より大きなバッチサイズで推論を実行したりすることが可能になります。これにより、応答速度の向上や、より複雑なタスクの実行が可能になります。

Ubuntu環境の構築

ローカルLLMを実行する前に、Ubuntu環境を構築する必要があります。Ubuntu Desktop 22.04 LTSを推奨します。インストール後、NVIDIAドライバをインストールし、CUDAツールキットをインストールする必要があります。NVIDIAの公式ドキュメントを参照して、適切なドライバとCUDAツールキットをインストールしてください。

sudo apt update
sudo apt upgrade
sudo apt install nvidia-driver-535
sudo apt install nvidia-cuda-toolkit

Ollamaのインストールと設定

Ollamaは、LLMのダウンロード、実行、管理を簡素化するツールです。以下のコマンドを使用して、Ollamaをインストールします。

curl -fsSL https://ollama.com/install.sh | sh

インストール後、Ollamaを起動し、Gemma3:27bをダウンロードします。

ollama run gemma3:27b

初回実行時には、モデルのダウンロードに時間がかかる場合があります。

OpenWebUIのインストールと設定

OpenWebUIは、Ollamaと連携して、WebブラウザからLLMにアクセスできるWebインターフェースを提供します。以下のコマンドを使用して、OpenWebUIをインストールします。

docker run -d -p 8080:8080 --name openwebui --restart always ghcr.io/open-webui/open-webui:latest

インストール後、Webブラウザでhttp://localhost:8080にアクセスすると、OpenWebUIのインターフェースが表示されます。OpenWebUIの設定画面で、OllamaのAPIエンドポイントを設定します。デフォルトでは、Ollamaはhttp://localhost:11434でAPIを提供しています。

Gemma3:27bの実行とテスト

OpenWebUIのインターフェースから、Gemma3:27bを選択し、プロンプトを入力して推論を実行します。応答速度や精度を確認し、必要に応じてパラメータを調整します。Gemma3:27bは、テキスト生成、翻訳、質問応答など、さまざまなタスクを実行できます。

パフォーマンスチューニング

GeForce RTX 3090の性能を最大限に引き出すために、いくつかのパフォーマンスチューニングを行うことができます。例えば、CUDAのコンパイルオプションを調整したり、バッチサイズを調整したり、量子化などの手法を使用したりすることができます。これらの手法を使用することで、応答速度を向上させたり、VRAMの使用量を削減したりすることができます。

まとめ

本記事では、GeForce RTX 3090を搭載したUbuntu環境で、OllamaとOpenWebUIを用いてGemma3:27bをローカルで実行する方法を解説しました。ローカルLLMは、クラウド環境に依存せず、オフライン環境でもLLMを利用できるメリットがあり、プライバシーやセキュリティを重視するユーザーにとって魅力的な選択肢です。本記事を参考に、ローカルLLM環境を構築し、さまざまなタスクに活用してください。

この記事はAIによって作成されました。