神代クロ のすべての投稿

東京都庁の展望室に行く

都庁で運転免許の更新をしたので、そのまま展望室にも行ってきました。

実は行くの初めてです。新宿の会社で働いてたことあるし、毎週のように西口で飲んでたこともあるのにね。

昇ってきた

今日は第3火曜ということで南展望室が休室日でした。そのせいか北展望室行きのエレベーターに100人くらい並んでました。ちょっと帰りたくなった(汗)

手荷物検査を受けてエレベーターに乗る。55秒で一気に45階到着。広いけどやはり人も滅茶苦茶多かった。4割外国人、2割修学旅行生って感じ。

晴れてたので景色がよく見える。遠くの方はちょっともやかかってたけど。

ちなみに、1枚目の写真に俺が以前働いてたビルが写ってるぜw

ちょうど東京都交響楽団60周年の弦楽四重奏が行われていて、ドラゴンクエストのオープニングも演奏されていました。景色を眺めながら聴くの最高だね。

まとめ

人多いけど景色綺麗で堪能しました。無料で手軽に行けるのに今まで行かなかったのは勿体なかったな。

Stability Matrix + ComfyUI + Wan2.1 でローカル動画生成

RTX5070TiでStability Matrixを使い画像生成(Stable Diffusion WebUI Forge)出来ました。

せっかくなので動画生成AIもやるかと調べると、Wan2.1もStability Matrixで使えるとのこと。早速試してみました。

設定方法

簡単に書くと、
・Stability MatrixのパッケージからComfyUIをインストール
・ComfyUIのワークフロー>テンプレートを参照>ビデオからWan用テンプレート選択
・必要なモデルが提示されるのでダウンロード
・ノードで画像指定して実行するボタン押す

これで生成できました。

今の設定だとwebpファイルで出力されるけど、webp面倒くさいね…

Photoshopに拡張機能入れてwebpを開き、レイヤーをフレームに変換して、タイムラインで時間調整して、mp4に書き出してようやく利用できるようになった。

たぶんComfyUIから直接mp4にする方法もあるはず?

生成された動画

できたものがこちらです。素材画像もAI生成してます。狐巫女さんがすごく自然な動きをして可愛い。

以下はちょっと不自然な動きのメイドさん。

他にも幾つか生成したけどいまいちな出来… やっぱりプロンプトや設定ちゃんと書かないとダメか。まあWebの動画生成サービスでも失敗作多いのでそういうものかもしれないけど。

まとめ

動画生成の環境構築までは簡単にできました。ここから意図した自然な動きをさせようとすると難しそうです。

【解決済】NASが遅いのWindows11のせいだった

前からずっとNASへのアクセスが遅く、そろそろ買い替えかなあと思っていました。ディレクトリ移動する時5秒くらい固まるんだよね。

原因判明

改めてネットでNASについて調べていたところ、SMB ファイル転送速度の低下という記事を見つけました。

Windows11(24H2以降)はSMBの署名や圧縮がデフォになるため、転送速度が遅くなるとのことです。

…原因これじゃね?

設定変更

ターミナル(管理者)で実行します。

SMB署名無効化

reg add "HKLM\SYSTEM\CurrentControlSet\Services\LanmanWorkstation\Parameters" /v RequireSecuritySignature /t REG_DWORD /d 0 /f
reg add "HKLM\SYSTEM\CurrentControlSet\Services\LanmanServer\Parameters" /v RequireSecuritySignature /t REG_DWORD /d 0 /f

帯域制限解除

Set-SmbClientConfiguration -RequireSecuritySignature $false -EnableLargeMtu $true
Set-SmbClientConfiguration -EnableBandwidthThrottling $false

QUIC接続無効化

Set-SmbClientConfiguration -EnableSMBQUIC $false

SMB圧縮無効化

Set-SmbClientConfiguration -RequestCompression $false
Set-SmbClientConfiguration -DisableCompression $false

サービス再起動

Restart-Service lanmanworkstation
Restart-Service lanmanserver

設定が反映されたか確認

Get-SmbClientConfiguration

結果

設定後エクスプローラーでNASに接続したところ驚くほど速くなりました。今までの苦労は何だったんだってくらいサクサクになった。

さすがにローカルHDD程ではないけど、これなら不満ないしNAS買い替える必要もないな。

Synology NASキット 2ベイ DS725+

ちなみに買い替え候補はこちらでした。先月発売したばかりの新機種です。

本体8.6万+HDD2台5.2万=13.8万円

せっかくなのでお高いやつを買うつもりでした。

まとめ

Windows11が原因なのでもしNAS買い替えても遅いままだったし、気づいてよかったです。余計な出費もせずに済んだ。

ほんとゲイツは余計なことする。

GeminiとGemmaシリーズの特徴まとめてみた

バージョンがちょっとわかりにくいのでまとめてみました。

Geminiシリーズ

Google DeepMindが開発する最先端の大規模AIモデル群です。

多モーダルな大規模言語モデル(LLM)であり、自然言語処理はもちろん、画像や音声など複数モーダルの入力・出力を扱えるのが特徴です。

バージョンリリース日主な特徴
Gemini 1.02023年12月 ・Ultra/Pro/Nanoの3構成
・多モーダル対応(テキスト・画像・音声・動画)
・32Kトークンの長文コンテキスト
Gemini 1.52024年2月
(限定公開)
・Mixture-of-Experts(MoE)導入
・最大100万トークンの超長コンテキスト
・Pro(大規模版)とFlash(蒸留軽量版)の2構成
Gemini 2.0 Flash2025年1月 ・マルチモーダルLive API導入
・ネイティブ画像生成・音声出力
・外部ツール連携(検索・計算機能)
Gemini 2.0 Pro2025年2月 ・高性能モデル
・リアルタイム音声・映像対応継続
・エージェンティック機能強化
Gemini 2.0 Flash-Lite2025年2月 ・低コスト版
Gemini 2.5 Pro2025年6月 ・Deep Thinkモード導入
・ネイティブ音声応答
・安全性強化
Gemini 2.5 Flash2025年6月 ・軽量高速版
・Deep Think一部対応
・応答速度最適化
Gemini 2.5 Flash-Lite2025年7月 ・低コスト版
Gemini 2.5 Deep Think2025年7月 ・並列思考技術
・国際数学オリンピック金メダル相当

Gemmaシリーズ

Geminiと同じ技術を基に作られた軽量でオープンソースの生成AIモデル群です。

Geminiがクラウド上の強力なLLM群であるのに対し、Gemmaはパラメータ数を抑えてPCやモバイル端末上でも動作可能なよう最適化されており、モデルの重み(学習済みパラメータ)は無償・オープンライセンスで公開されています

バージョンリリース日主な特徴
Gemma 12024年2月 ・オープンソース (2B/7B)
・テキスト専用
・商用利用可
Gemma 22024年6月 ・大規模化 (9B/27B)
・高速推論対応
・オープンライセンス
Gemma 32025年3月 ・マルチモーダル・マルチリンガル対応
・1B/4B/12B/27Bサイズ
・128Kトークン長
Gemma 3n2025年6月 ・モバイル最適化
・PLE技術で低メモリ
・5B/8B相当

まとめ

GeminiはProが高性能版、Flashが通常版、Flash-Liteが軽量版。
そしてGemmaは3nがモバイル用ということでした。

【スマホAI】Google AI Edge Galleryためしてみた

Googleが密かに開発しているスマホLLMクライアント、Google AI Edge Galleryをためしてみました。

まだストアにはなく、GitHubからAndroidアプリをダウンロードできます。

初期設定

アプリ起動したらリリースしたばかりのGemma-3nがあったのでためしたかったんだけど、なぜかHugging Faceにログインしないとダウンロードできないみたい。

そんな訳で、まずはログイン不要のQwen2.5-1.5Bをためします。このモデルちょっと古いけどね。

Hugging Face経由しなくてもモデル使えるのかな?

使ってみた

アプリには3つのメニューがありました。

Ask Image
たぶん画像解析。Gemma-3nないので使えず。

Prompt Lab
ラボ。テキストをフォーマルやフレンドリー調に書き換えたり、コーディングしたり。でも英語しか出力しないっぽいので今は使わないかな。

AI Chat
よくあるチャットAIです。以下はこれを使った動作です。

実際のやり取りは画像の通り。モデル名や日付がおかしいのはデフォなので気にしない。

4年前のスマホなのに2.6秒で回答するのは素直に凄い。

問題は次の回答。ちょっと壊れてるんだよね。これはスマホのせいなのかモデルのせいなのか。あと長文だから出力に30秒以上かかった。

油断すると回答が英語になっちゃうし、原因わからないけど不安定だな。

まとめ

まだ不安定だけど楽しみな技術です。

ネット不要でスタンドアローンで動くから、いよいよSFに出てくる人工知能って感じだし。

【ローカルAI】LM StudioでGemma3を動かしてみた

PC新しくしたのでローカルAIやってみました。

動かすのはLLM(大規模言語モデル)、つまりテキスト生成AIです。

ツール選定

まずはPCスペックの確認。それなりに良いやつなので問題ないはず。
CPU:Core Ultra7 265KF
RAM:32GB
GPU:RTX5070Ti (VRAM 16GB)

次はクライアント。LM Studioを使うことにしました。一番有名っぽいので。

最後はモデル。無難にGoogleのGemma3にしました。

初期設定

LM Studioをインストールして起動。モデルもこのクライアントからダウンロード出来るので、すぐ使用できるようになりました。簡単すぎて驚いた。

画像生成AIは設定面倒なのに、LLMはこんな簡単に出来るんだね。

動かしてみた

Gemma-3-12B。テキスト投げたら一瞬で返答が来る。これは良いね。モデルサイズ8.15GBでVRAMに丸ごと乗るから軽い。

Gemma-3-27B。モデルサイズ16.43GBでVRAMに乗り切らず結構重たい。

ちなみに12B, 27Bというのはそれぞれパラメータ数が120億, 270億という意味です。そして12Bが速度と精度のバランスが取れたモデルとのこと。

この2モデル試していましたが、正直あまり性能差は感じられませんでした。「JavaScriptでテトリス作って」と指示したら、どちらも動かないコード出してきたし。

ずんだもんの画像見せたら「星街すいかさんです!」と自信満々に答えられて吹いた。

誰だよw

調べたら12BがGPT-3.5くらい、27BがGPT-4くらいの性能とのことでした。なるほど、2年以上前のChatGPTと考えれば納得だ。

ともかく動くようになったので、なりきりチャットとかさせてみようかなw あと外部ツールから呼び出したり出来るのかな? 色々いじってみよう。

まとめ

ちょっとした会話なら問題ないけど、知識が必要なことは厳しいなあと思いました。ローカルで動くこと自体は凄いんだけどね。

そのうち他のモデルも試してみます。

数日使ってみて

12Bで近所の公園について質問したら正しい返答が来て驚いた。たった8GBなのにそんなローカルな情報まで網羅してるのか。デタラメも多いけどね(汗)

12Bと27Bでは日本語の表現が段違いだった。しかし27BはVRAM16GBだと200~300トークンまでしか対応できないらしい。試した限りでは2000トークンくらいで同じ返答繰り返すようになり、まともに動作しなくなる。残念…

APIはOpenAI準拠で使えました。既にLLM+画像生成AI+音声生成AIを繋ぎ合わせてる人とかいたけど、いろんなことが出来そうだ。

他のモデルもためしてみたけど、今のところGemma3が一番しっくり来るな。Qwen3は推論内容が見えて楽しいんだけど、見当違いの返答が多くて。

JCBザ・クラスからオリジナルのペアグラスもらった

JCBから荷物が届きました。

ちなみに左上の凹みは最初からです(汗)

開けてみるとペアグラスが入ってました。

こちらに記事がありますが、JCBザ・クラスからの誕生日プレゼントとのことです。

初めてもらったよ。

調べると2023年くらいからもらってる人がいるようで、条件は保有年数や利用金額らしいとのこと。

5年保有記念と書いてる人がいたけど、俺は10年以上保有してるしなあ。

ガラスが薄くて、内側から力を入れて洗うと割れると書かれてました。普段遣いしづらいな…

まあでもプレゼントもらえて嬉しいです。

特定保健指導に行く

自治体の無料特定健診に行ったらいくつかの項目が引っかかったので、特定保健指導を受けることになりました。どうせ「痩せろ」と言われるだけだろと行く気はなかったんだけど、2回も電話で催促されたので。

管理栄養士の人から案の定「痩せろ」と言われましたw 計画を立てることになり、3ヶ月で3kg痩せると伝えると「3ヶ月で2kgが良い」と訂正されました。3kgだと1日300kcal減らす必要があり、確かに大変そうです。

テレワークで家から一歩も出ない日があるので毎日出歩くようにする。酒は控える。ご飯少なめにする。これで1日200kcal減らせるようです。それなら何とか。

今後指導はないけど、無料で管理サイトが使えるようになり、それで自己管理する仕組みらしい。

まあせっかくなので頑張ろう。これで夏には細マッチョだなw

ChatGPT-4oの画像生成で巫女さん描かせてみた

ChatGPT-4oで画像生成できるようになったので、巫女さんを描かせてみました。

これは細かい指示なしの一発画像なので、ちょっと身体のバランスが悪いかな? でも可愛く描けてる。

座らせてみた。

袖のマークはたぶん千早の模様だろうな。

刀を握らせてみた。

最初上の画像のキャラそのままだったんだけど、変な形の刀持ってたので何度か描き直させたら、ちょっとキャラ変わっちゃった。


4コマ漫画を描かせてみた。

特にネタは指定しなかったんだけど、なぜかメイドさんが巫女さんに昼寝を促す内容に。しかも3コマ漫画だw

少し漢字が怪しいけど日本語書けてるな。

話題のジブリ風。

それっぽい。

最後はソシャゲ風にしてもらった。

このゴテゴテ感。確かにソシャゲだw

まとめ

AIの画像生成って絵柄やポーズが毎回変わるのが普通だったけど、ある程度保持したまま生成できるようになって良い。

しかも「リボンつけて」とか「足袋はかせて」という細かい指示にもちゃんと対応する。素晴らしい。

ChatGPT各バージョンの特徴まとめてみた

PICO Motion Tracker Waist Version 買った。さらに自然な動きに

PICO Motion Tracker Waist Version買いました。数日前急に発表・発売されたんで驚いたよ。

既にPICO Motion Tracker持ってるので、この腰トラ1個買って6点トラッキングになりました。

初期設定

腰に巻いてトラッキング開始! と始めたものの、なぜか認識せず。赤青に点滅して充電切れかなあと思ったけど、そうでもない。

よく見たら腰トラの設定位置が「ウエストの後ろ」になってたよ。前側に変更したら問題なく認識しました。後ろでも認識するんだね。

相変わらず簡単設定で良い。

使用感

・Dance Dash
ちゃんとアバターが動くようになりました。
今までもプレイはできてたんだけど、アバターは動かなかったんだよね。たまに手を足だと誤認したり。

・VRChat
これまでも足トラだけで腰が動かせてたんだけど、あくまでエミュレーションなのでうまくポーズが取れなかったり、座ると変になったりしてたんだよね。

PICO4Ultraは最近のアップデートで改善されたみたいだけど、うちのは無印PICO4だし。

かがみポーズ好き。

今までもこのポーズできてたけど、より自然な感じになって良い。

振り向きポーズも違和感なく。

それにしても右近弐式ちゃんは可愛いなw

座りポーズ。

まだあんまり試してないけど良くなってる気がします。

まとめ

足トラが優秀だったので、そこまで大きな変化はないけど、こういう細かな部分が大事だよね。