その昔、サルがキーボードを適当にたたいて、シェイクスピアができる確率とかなんとかありましたが、まさにそのサルに自分がなっているかのような気分になっています。
2026年4月21日火曜日
検索が見ずらくなったなぁと感じたので…
FireFoxの検索のサイト指定の除外を増やしてみました。
なーんか調べようと検索すると似たようなサイトがいくつかあって、中身はまともそうなんだけど広告がうざすぎるというか、コピーサイトみたいな感じのものが多かったので。
2026年4月20日月曜日
2026年4月19日日曜日
LocalAI backend stablediffusion-ggml
llama.cppのリリースが落ち着いている様だったので他のバックエンドも様子を見てみようかと。
今までイメージ出力が上手く行っていなかったので、LocalAIでcommitされていたbackendのstablediffusion-ggmlをビルドしてみました。
2026年4月17日金曜日
2026年4月16日木曜日
llama.cpp b8809 [SYCL]のQ8_0のバグ修正
Q8_0って結構好んでるモデルですね…でもQ4とかほかのものもおかしい気が…
[SYCL] Fix Q8_0 reorder: garbage on 2nd prompt + crash on full VRAM
[SYCL] Fix Q8_0 reorder: add missing dequantize path for GEMM
SYCL: add RAII temp buffer class + macro guard for host fallback
SYCL: document GGML_SYCL_HOST_MEM_FALLBACK build option in SYCL.md
SYCL: add reorder-aware DMMV dequantizers for Q4_K and Q6_K
そもそもこのコード修正すでにAIが行ってるんですか?すごいですね…としか言えない…というかめちゃ怖いw
2026年4月15日水曜日
cpuのみで動作させてるはずなのに、xpu-smiが表示される。
htopでcpuとメモリーの監視を行いながら、動作確認を行っているとなぜかxpu-msiというプロセスが動いていることに気づきました。
2026年4月14日火曜日
MedGemma1.5が日本語で推論しはじめた!?
しまい込む前にモデルの設定ファイル(.yaml)のF16: falseにしたり効果はないもののreasoning: disable: true にして、ちょっと真面目に?聞いてみました。
肥大化したモデルファイルを整理しようとしてるのに、なぜか増える件について…
闇雲に生成AIに触れながらいろいろ試しているうちに、結構肥大化してきたので整理しようとしてるのですが、何故か増えてるんですよ…
llama.cpp backendによって地味に差がある?
手元の環境で実行できるbackendは、CPUのみとVulkanとSYCL。
この前動かした状態だとVulkanとSYCLではVulkanの方が遅かったのですが、再度環境を変えたところ両方ともほぼ同程度でした。
2026年4月13日月曜日
local-ai ik-llama-cppを早く動かしてみたくて…
とりあえず、素のik-llama.cppをビルドしてみました。
レスポンスのトークンが3倍以上に跳ね上がるグラフを見てうずうずが止まりませんでした。(グラフの見方も良く分からんかったりするわけですがw)
仮に、1分のものが20秒ぐらいで返ってくるのはでかいよなぁ?とか涎が止まらなくなりそうな状態のまま、書いてある手順に従ってサクッとmakeしてcpu単体で動かしてみました。
2026年4月12日日曜日
ik-llama.cpp backendを追加?
Qwen 3.5 4B Q4_K_Mで特定の画像でレスポンスが返ってこなくなる
Qwen3.5 35B A3Bの量子化されたモデルを試していて、Qwen3.5でレスポンスが無くなった画像も試したものの、やはりこちらでも返ってこなくなったのですが、結構激しい量子化がかかったQ2とかQ3のもので試していたので、(Q2のものだと普通にレスポンスが怪しい状態なので)そのせいかもしれないなぁと。
以前、少しマルチモーダルな機能を試していてレスポンスが止まることがあったモデルで、最近のllama.cppをベースにしてるものなら動作が変わるかもしれないと思い、再び試してみました。
2026年4月11日土曜日
local-ai backend/cpp/llama-cpp/grpc-server.cpp チャット時の最初のトークンのダブり対応
LocalAI v4.1.3でllama-cppを使用していて、個人的に非常に直したかった部分の対応が行われていました。(リリースは現時点ではかかっていません)
2026年4月10日金曜日
llama.cpp on ubuntu あれ?もしかしてvulkan?
今の今までllamaでintelならoneAPIでしょ?って思って疑わなかったんですが…もしかして正式にはvulkanじゃないとダメなのかなw
リリースの一覧を見ていると…Ubuntu x64 (CPU) Ubuntu arm64 (CPU) Ubuntu s390x (CPU) Ubuntu x64 (Vulkan) Ubuntu arm64 (Vulkan) Ubuntu x64 (ROCm 7.2) Ubuntu x64 (OpenVINO)あれ?さらに下を見ると…Windows x64 (Vulkan) Windows x64 (SYCL) Windows x64 (HIP)…SYCLってWindowsしかないんじゃ…(汗
SYCL どうもgpu_layersに0を設定してもGPUが動き続ける
結構軽めの動作確認をしているだけなので極端な差は出ていないけど、GPU(SYCL)の設定がいう事を聞いてくれない様だ。
0なら動かなくなるはずなのに、思いっきり動き続けている…しかもCPUコアは暇そうにしてるし(笑)
llama.cpp: Gemma 4 26B A4B 量子化されたモデルの動作メモリ
妙に使用メモリが少ないと思ったんですよ(笑)
あと、今までも妙なメモリの変動があったのはあったんですが、A4BのモデルではCPUのみとは言え、メインメモリーには展開されるはずなので…
で、不思議なのはまともに会話が成立していた点はちょっと恐ろしくもあります。
2026年4月9日木曜日
llama.cppのアップデートが激しい…
結構頻繁にアップデートされ続けているようですが、ここ数日に至ってはどうやらLocalAIのbackendのllama-cppに影響の出るような修正が入ってきました。
2026年4月8日水曜日
Qwen 3.5 4B Q4_K の画像認識
少し前にQwen 3.5を動かしたものの、思考表示がどうしても邪魔で最初は敬遠しがちでしたが、少しは動かしていたんです。少し…だけですがw
Gemma 4のリリースでここ数日どっぷりとハマっている感じですが、ふとllamaの動作確認を確認してた時にQwen3.5の画像認識がGemma 4より優っている感じがしました。
アップデートの影響
今のところベースとなる環境はLocalAIv4.1.1でllama.cppを最新のものに随時入れ替えている感じです。
モデルファイルはUnslothさんのところのgemma-4-26B-A4B-it-UD-Q3_K_XL.ggufかgemma-4-26B-A4B-it-UD-Q4_K_XL.ggufになるかな?と様子を見ています。
gemma-4-26b-a4b-it-UD-Q の動作
今まで動かしたモデルの最大パラメータ数はgemma-3-12b-Q4_K_M.gguf(ファイルサイズ約7.3GB)で、このモデルを実行すると確実に動作が極端に落ちたので量子化されたモデルでも実際によく試すものは4Bクラスのものが中心となっていました。
gemma 4のこのA4Bだとファイルキャッシュを含めてメモリーに格納できれば動作はそこまで極端に落ちない感じです。ほぼほぼCPUのみの動作に近い環境ですが。
なぜほぼCPU環境なのかと言えば、SYCLで動かしているとgpu_layers: 1より増やすと機動的無くなってしまうので…原因は単にGPUメモリの確保が足りないか、バグなのかはわかりません。
2026年4月7日火曜日
LocalAI v4.1.3
3時間前にリリースされたみたいですね。
個人的にはあまり関係が無さそうな修正ですが、grpcのバージョンが1.79.3 から 1.80.0 へ引き上げられているようです。
bakend全体的なビルド元のバージョンもいくつか引き上げられていますね。
https://github.com/mudler/LocalAI/releases/tag/v4.1.3
(追記 14:49)
デシベルとラウドネス
昔、小学生前かな?親の持っていたテープレコーダーにラウドネススイッチがついていてオンにすると音が良くなるとかなんとか言われた気がします。あとドルビーのスイッチもついていてなんか良く分からないけどこれも音が良くなるとかなんとか。正直良く分かりませんでしたが、スイッチのオンオフで低音が強調されたり高音が抑えられたりするのは気づきました。
そんなラウドネスと言う言葉ですが、まさかffmpegの音の調整で出てくるとは…
Gemma 4 26B A4B 例のフィルター
実際問題あまり問題ない倫理フィルターですが、動作確認的にどの程度で引っかかってくるのか気にはなります。E2BとE4Bの引っかかり具合の差は明らかにE4Bの方が厳しくなっていたのですが、それが大きいパラメータを背負っているモデルではどのように変わるのでしょうか?
2026年4月6日月曜日
Gemma 4 26B A4Bの画像認識について
最初に断わっておくと、E2BやE4Bはお笑いレベルでしたが、26B A4Bは道具レベルになっています。
E2B / E4Bモデルの量子化モデルを使って画像からの文字認識率を比較してベースのパラメータサイズがかなり影響を受けていることを感じていました。26B A4Bの量子化がかなりかかったモデルも動かせたので早速確認することにしました。
…Gemma 4 26B A4Bの量子化版UD-Q2_K_XLが普通に使えて驚いた…
つい魔が差して手を出してしまいました。
ほら、やっぱりアクティブトークンが4Bレベルで動作するとか気になるじゃないですか?
2B、4B、26Bとかのボリューム感
実際に生成AIに直接触れ始めたのは去年のGemma 3ぐらいからですが、どうもパラメータ数を表す単位が大きすぎて想像が全くつかなかったので、身近な(?)数字で感覚的にとらえられないかと考えていました。
Gemma 4 E2BのQ8_0とかの画像認識
今までは「ギリ動かせる」モデルとしてE4Bベースのモデルを動かしていましたが、身の丈に合った小さいモデルがどの程度の実力なのか気になったので少し確認してみました。
実際に動かしてみると、ザックリと触れる分にはE4BもE2Bも大差がないのかもしれません。
2026年4月5日日曜日
Gemma 4 update(多分正式リリースアナウンス版が反映されている感じ)
google/gemma-4-E4B 3日前にアップデートされunslothさんのものも昨日アップデートされていました。
Gemma 4 で(思考抑止で)くだらないチャットを続けてました。
Local AIでgguf内で定義されているトークナイザ用のテンプレートを利用した場合にシステムプロンプトがちゃんと扱われているかRakuten AI 2.0miniの時には半信半疑だったのですが、ちゃんと機能しているようです。
llama.cpp LOGIT_SOFTCAPPINGがどうたらこうたら
Gemma 4関連でllama.cppのアップデートが行われていないかチェックしているのですが、にわかな私ですら結構インパクトのありそうな修正が入ってるような気がします。
2026年4月4日土曜日
Gemma 4 (思考抑止モード)がどの程度遊びに付き合ってくれるか試してみた(笑)
Gemma 4の画像認識がどの程度なのかを見ていてどの程度のものが倫理フィルターに引っかかってしまうのか気になったので試してみました。
Gemma 4 (主にE4B) の画像認識
まだ突っ込んだチャットはしていないのですが、mmprojが目についたのでvision機能について少し遊んでみました。(Unslothさんはほぼフルセットのggufが作成されているので私のようなにわかにとても助かります。ドキュメントも整備されていてものすごく理解が早まります。)
比較対象は主にGemma 3や3nとなりますが、複数のmmprojモデルが作成され選択肢として用意されていたので、その違いも改めて知ることになりました。
2026年4月3日金曜日
Gemma 4 on LocalAI
何もしない(localAI v4.0.0)で.yamlを超手抜きで options: - use_jinja:trueだけ指定して実行すると下記の通りになります。
gemma-4n-e4b-it-Q8_0
Internal error: failed to load model with internal loader: could not load model: rpc error: code = Internal desc = Failed to load model: /usr/share/local-ai/models/gemma-4-E4B-it-Q8_0.gguf. Error: llama_model_load: error loading model: error loading model architecture: unknown model architecture: 'gemma4'; llama_model_load_from_file_impl: failed to load model; llama_params_fit: encountered an error while trying to fit params to free device memory: failed to load model; llama_model_load: error loading model: error loading model architecture: unknown model architecture: 'gemma4'; llama_model_load_from_file_impl: failed to load model
コンソール出力などにも同様のエラーが出ますが、チャットインタフェースでもエラーが表示されます。
〇dobeのhostsファイルの書き換え
Adobe CCがhostsファイルを無断で変更か。批判の声相次ぐ https://pc.watch.impress.co.jp/docs/news/2098494.html
まとめ系で見ていてモラルが落ちたのかな?とか思ったんですが、どうしてこんなことになってるか?っていう事ですが、おそらくこれIPv4 over IPv6が原因で、仕方ないって感じがします。
LocalAI 4.1.0 Release!
2時間前にリリースされたとのこと。
gemma4の対応かと思ったんですが違うようですね。
ちなみに、llama-cppがCommit 5208e2dのリリースもついさっき行われててこちらはfix: gemma 4 template (#21326)とのこと。テンプレートを使うとエラーになるようですね。変更を少し見るとテンプレートにIntegerとか変数型による分岐が追加されているようなので、function関連で型を厳密に見るようになってるのかな?まだgemma4はunslothさんのQ4_0.ggufをダウンロードしてサクッと動かそうとしてエラーになったから寝たんですが。
ふと、メールの着信音が聞こえたので
Gemma 4 だと!?
ただ、最近gemini使っててあれなのが、gemma3と同じで話の途中で結構入れ替わりが発生するんですよね。例えば、AとBについて話していると突然AとBが入れ替わってるという…。
根本的なところが補強されてればいいんだろうけど、おそらくマルチメディアよろしくいろいろなデータが扱えるようになっているとか出力できるようになったとかそういう系のような気がするんだよなぁ…期待はするけど…さて…どうでしょうかね?
2026年4月1日水曜日
LocalAI v4.0.0でpocket-ttsがそのまま動いた\(^_^)/
いや、普通は動くんじゃね?って思うでしょ?dockerのイメージを使って動かすなら動くんでしょうけど、こっちはソースからビルドしたネイティブ環境という茨の道を歩いている最中…。
GOPって?
動画ファイルを不要な末尾のカットをしていて、再エンコードなしでカットすると、キーフレーム単位のような単位で切れるので、最初はこういうものだとあきらめていました。
そもそも動画ファイルがいい加減で、ffmpegもそこまで厳密に扱っていないだろうと。
そんな思い込みが強く、細かくソースを確認することもせず使っていたのですが、最近、とあるPCでカットをすると見事にフレーム単位で切れるんです。もうほんとフレーム単位でスパスパと。
2026年3月31日火曜日
妄想
🤖「結論から言うと、llama.cpp側の --override-tensor オプションは、LocalAIのYAML設定内で tensor_overrides(またはバックエンドへの直接引数渡し)として記述することが可能です。」
あったらよかったんだけどね…ありませんでしたよ。そんなもの…。
〇タップ細胞じゃないですが、さもあるように言われると期待しちゃったじゃないですか…ほんとに…
2026年3月30日月曜日
MedGemma 1.5 矛盾した問いかけ
Qwen3.5とか出てるならgemmaの方は何かないのかな?とちょっと見てて
Gemma のリリース を見てました。シリーズとしてはLLMだけではなく、その他ツールも含まれていて今まで全く知らなかったMedGemmaなるものが。
2025/03/10にGemma3がリリースされた後、二か月後の2025/05/20にMedGemma、その翌月となる2025/06/25にGemma3nがリリースされていたようですが、MedGemmaなんて本当に知りませんでしたよ。
2026年3月28日土曜日
localAI Qwen_Qwen3.5-4B-Q4_K_M.ggufで思考表示モードの抑止
Qwen3は動かした気がしたのですが、3.5がlocalAIのギャラリーに並んでて少し気になったので動かしたのですが、何気に回答するまでの思考プロセスが言葉で表示され、かなり時間がかかった後に回答が得られるので、何とかならないかと少し検索していました。
2026年3月27日金曜日
localAIでのRakuten AI 2.0 mini
結構試行錯誤の末になんとなくまともに動くようになった感じです。(contextの大きさなども含め動くだけの設定ですが。)
色々と試行錯誤してみると細かいところでlocalAIの中身がわからないのでソースを見ながら調整していました。
おもに.yamlファイルのtemplateを調整していたのですが、結局のところ何も考えなければ、
options:
- use_jinja: true
と設定すればllama-cppでgguf内の定義体からtokenizer.chat_templateをつかってプロンプトをいい感じに扱うようになりました。
OllamaのRakuten AI 2.0 mini instruct
localAIでいろいろと納得いかず、WindowsにOllamaをインストールして確認してます。
Ollamaのインストーラーもいつの間にか2G近いサイズになっていて驚きました。
インストールしたら、コマンドプロンプトでモデルのインストール。
> ollama pull hf.co/mmnga/RakutenAI-2.0-mini-instruct-gguf:Q8_0
ほんと、コマンドラインの履歴が残ってて助かりました…w
2026年3月21日土曜日
さらに…
結局のところデバッグログを出しながら見てみるとlocalAI内部は意図通りに出力されているのが確認できました。
最終的にgeminiが下した判断は、パラメータでもう少し落ち着かせて冷静にさせてダメなら量子化などの影響が色濃く出ちゃってるんじゃ?とかなりRaktenAI2.0miniをオブラートに包んでダメ出しした感じですw
まぁ会話の最初で暴走気味しなければそれなりにいい感じなので、挨拶や会話調で話し始めるのはダメなのかもしれませんね。
今まで質問をぶつけてダメだった記憶は…あまり最初から質問をぶつけたことは無いか…
2026年3月20日金曜日
イギリスの郵便局に納入されたシステムの不具合
午後4時の〇HKニュースで流れていたが、イギリスの郵便局に納入されたシステムの不具合でシステム上の金額と現金に差異が発生し、それにより郵便局員900人以上が横領などの罪で訴追され罪に問われた事件があったとのこと。
ついでにダウンロードしてあったRakutenAI-2.0-mini-instruct-BF16の設定もしてみると…
チャットテンプレート部分を置き換えて何も設定せずに動かしてみるとそれなりに重かったので、GPUオフロード周りの設定をして「こんにちは」と話しかけると、システムプロンプトが空のままだったので動作不安定だったのですが、何度かパラメータをいじって試していると突然…
いまさらRakutenAI-2.0-mini-instruct-Q8_0
localAIで動かしたような気もするのですが、今の状態だとまともにチャットすらできない状態でした。windowsのOllamaで動かして満足してしまったのかもしれないなぁ…。
localAIで動かしてみようと試しながら寝てしまったのですが、起きてから少しあがいてみました。
2026年3月19日木曜日
gemma3nのImage to Text
前々からgemma 3nのmmprojモジュールをどうやって用意すればいいのか途方に暮れていました。
geminiに聞いてもgemma3の話しかしないし、「n」を見なかったことにするんですよね…。でも今日は少し突っ込んで「gemma 3n のmmporjの作成方法 」と質問し、gemma3の話をされた後に再度「「gemma 3n」の場合も同様ですか? 」としてみると、ようやくgemma3nの話に移ってくれました。
まぁ作成方法に関しては絵空事混じりの戯言だったのですが、入手方法として「Hugging Face で検索: gemma-3n GGUF mmproj で検索」というヒントをいただけました。
gemma3nが公開されてから結構経っているのであるかもなぁ?とあまり期待せずに検索してみるとありました。
ただし、sign upしないとダウンロードできないので、今まで登録していなかったのですが、背に腹は代えられないので登録することに…で、早速試してみました。
保証はできませんがとりあえずこちらのものを使いました。https://huggingface.co/Anthonyg5005/gemma-3n-e4b-mmproj-gguf
メインで触っているのは4Bサイズのモデルですが、gemma3と比べるとあまり違和感がありませんが、3nの方がより直感的になっている感じはします。
質問に対する応答は3nの方が会話が通じるのでようやくいい感じにいろいろと試せそうです。
所々で3nはなんかまともに画像の認識をしてくれないとか、酷いと言った書き込みがあったのですが、特に問題はない感じです。
ただ残念なところがあって、イメージは通るのですが、音に関しては…このmmprojではダメな様で…正直なところ、絵よりも音の解析をしてもらえるととても便利なのでは…と思っていたりします。特殊な機材が無くても音声をいろいろ分解や分析を行って教えてくれそうとか期待してたりします。
環境として結構落ち着いた感じになってきたので、もう少し他の事も試してみたいかな。
Rakuten AI 3.0 がリリースされたようです
楽天、「GENIACプロジェクト」の一環として開発された国内最大規模の高性能AIモデル「Rakuten AI 3.0」を提供開始
LocalAI v4.0.0のmmproj系のモジュールの動作がおかしいのでv3.12.1ベースに切り替えられる環境整備とmmprojの入手先か作成方法を調べていました。とりあえずgemma3n-e4b-itのmmprojを見つけたので、他のものもぼちぼち探してみるかと…見ているとタイトル通りの事が…。
ちょっと興味津々です。
で、ちょっと見ていましたが、ベースモデルが673G…嫌な予感しかしません(笑)
Quantizedされたものも公開されていましたが、2bitですら244Gです。ん~手出しできそうにありません。
どれだけ学習させたのでしょうね…。と、言うか、めちゃくちゃ期待するんですが…mini版が出てくるの待ちかな。
2026年3月17日火曜日
localAI v4.0.0 のビルド
ネイティブ環境でビルドするのにv3と手順は変わらないものの、新たにnpmというJavaScript用のパッケージ管理が用いられるようになったので、別途aptでインストールしました。
またこのパッケージシステムのレジストラのホストがnpmからアクセスできずにビルドでエラーになってしましました。
対処方法はいくつかありますが、小手先だけ何とかならやはりこの記事のhostsファイルに一時的にIPv4アドレスを追加して回避しました。(その後のためにビルド後は追加業はコメントアウト)
backendのllama-cppもいつも通り、一部のmake関連ファイルを修正してビルド。
そのと他はおいおい…
で、チャットを試してみましたが、エージェントの機能などが統合されている感じなのと全体的なWebUI周りが洗練されてきた感じです。文字だけのチャットなら問題は無さそうですが、マルチモーダル的なことを行うと永遠とThinkingになったまま帰ってこなくなるという感じ。ストリームのストップをかけると表面上停止したかに見えてもがっつり動いたままになります。model(backend)の再起動が行われるまで動いているのと、どこかで処理がおかしくなっているのかみるみるスワップファイルが肥大化してシステム全体がかなり不安定になりました。いままで放置していたswapファイルを止めるだけでも良かったのですが、zramをインストールしてメモリの一部を割り当てておきました。
モデルのパラメータを変更するのがチャット画面から変更できるようになって、パラメータのセーブをすると再起動まで綺麗に行ってくれるので、これだけでもv4.0.0はいいかもしれません。(本来は他の機能が魅力なんでしょうけど…w)
2026年3月16日月曜日
LocalAI v4.0.0 がリリースされました。
もうそろそろかな?と思っていましたが、v4.0.0が昨日リリースされました。午後電車の中で見たときに11時間前とのことなので日本時間で15日午前3時ぐらいだったのかな?
メジャーバージョンアップとしてより一層の汎用化とエージェント系のインタフェースが追加されている感じです。
LocalAIの目指している形と私が求めている形が違っているかなと薄々感づいては居るのですが、LocalAIを中心に見ていると流行を感じることができるのでウォッチは外せないかもしれません。
何も考えなければDockerイメージで動作させられるというのは便利なので各生成AIを統合的に扱うためのプラットフォーム的なものとしては優秀なのかな?
ネイティブ環境で動かしたいので頑張っていますが、いまだにllama-cppのバックエンドぐらいしか動きませんがw
ド派手にpythonをuvベースで動かすのにはまってしまっていてなかなか前に進みません…
2026年3月14日土曜日
ルータとは別の無線アクセスポイント経由のmDNSとか。
色々と右往左往した結果、主な設定方針としてメイン(無線)ルータを主軸にLANケーブルでつないでいます。速度優先と言うよりは安定性優先と言う感じ。
とは言え、無線環境も必要なので個別に無線アクセスポイントとして中継器も使用していると、手軽な無線環境が主軸に(笑)。
無線LANを主軸にするとクライアント側の不便はほとんどないのですが、サーバー形式になると途端に不都合な部分が出てきます。
特に、無線アクセスポイントの先に無線接続のサーバーを置いたりすると途端に接続がおかしくなります。完全にアクセスできなければ割り切りができるのですが、ホスト名アクセスだと接続したり、しなかったり、接続できても切断状態になったりと、なかなか安定しません。
とは言え、IPアドレスでアクセスする分には安定して使えるので、何とかならないかと、最近の無線ルータを購入して解決しないか試してみました。が、結果的に症状は変わらず。
無線LANベースを崩さずに何とかする方法を模索したところ、メインとなっている無線ルータに接続した状態のサーバーであれば、(今までのルータでも)安定してアクセスできるところまでは確認しました。これで満足してもいいのですが、作業している手元に本体がないというのはちょっと辛いかなぁ…とか。
無線アクセスポイントを最近のものに変えて試してみるという手段がまだ残っているのでもう少しあがいてみようかな?
と、それとは別に最近(?とはいえもう結構経ちますが)の機能としてメッシュWifiとか気になったので試してみました。
正直なところ理想としては無線ルータと中継器を有線LAN接続して中継器を無線アクセスポイントとしてできるものだと思っていたのですが、どうも無線リピータとして機能させる以外にメッシュWifiは構築できないようで… 思ってたのと違いました。
メッシュWifi環境にしたうえで、Wifiのチャンネル設定を2.4G / 5GHzともにチャンネルを自動設定にしたところ、占有されるWifiチャンネルが広範囲になることも確認。当たり前と言えば当たり前ですが…。同じSSIDで接続できるようになるとは言え、ほとんどのクライアントデバイスでSSIDの切り替えはそれなりにスムーズに自動で切り替わるのであまり利点はないかな?とか。
場所によるのですが、結構近所のWifiの設定が電波強度を最大にしているところが多いので、2.4GHz帯では繋がらないということは無いのですが、モニタリングしているとあまりよろしく無さそうかな?とか。5GHz帯もSSIDこそ拾えますが、電波特性上、屋内に設置する必要があるうえ、屋外には電波が届きにくい…はずなんですけど、結構漏れまくってますね(笑)
個人的に消費電力的にも出力強度は最低限にする様にしていたりします。周りも弱くしてくれれば、電波汚染がクリアされるんですけどね…。
本命?
なろう系の小説を読み始めたのは、なろう系アニメが結構展開されてからだったりします。それまでは何度か読み始めた事もあったのですが、どうも文体が合わなかったり、イメージが湧かなかったりするものばかりで、合いませんでした。
とは言え、いくつかのなろう系のアニメを見ていると先の展開が気になったりするわけで…一番最初に本格的に読み始めたのは「転生したらスライムだった件」からなのかな?
Web版は正直なところ難易度高めだと思いますw
そこからアニメ化されたものをいくつかWeb版の原作を読み始めたり、設定が気になったものを読んだりしていました。アニメ化されていない物もいくつか読んだりしましたが、基本的にはなろう系だとランキング上位になるものは読みやすいものが多いですね。アニメ化されると私と同様に気になって読まれている方も多い感じがします。
あと、作者もアニメ化決定したり、放映されたりすると記念にSSを追加するパターンも多く、リアルタイム性も高くて面白いです。
意外なところで「盾の勇者」もアニメから入った口ですが、Web版だと作者の暴走が止まらず変態的な物語が展開されています(笑)これも書籍だけだとありえない展開だと思います。何となくアニメ化はどうもまた別のテーマをもって展開されている感じがするので、同じ設定上の別の話になって行くのでしょうかね?
アニメ化後も、マイペースに話が進んでいる本命として「最弱テイマーはゴミ拾いの旅を始めました。」だったりします。アニメは低予算で仕上がりは微妙だったりしますが、悪くはないかな?と思います。Web版としては大きな一つのゴールはしていて、その後の話の展開がそれなりに続いていて、正直話を完結させる気はあるのか?と思われますが、主人公たちがこれからも元気で幸せに生きてほしいと願っている作品です。
他にもアニメ化されたもので、最初から文体もしっかりしてる作品も多く簡単に手軽に読めるのはうれしい。
ただ現状…書籍がめちゃくちゃ高騰しているので手軽な物ではないのは確かなのですが。
嘆きの亡霊
アニメネタとしてですが、これはなろうのWeb版のおすすめになってしまうかな…
アニメから入ったのですが「嘆きの亡霊は引退したい」という話も結構面白かったです。アニメだと、ちょっと扱いが残念な女の子キャラが結構際立ってたりしますが、Web版ではそこまで表立っていなかったりしました。書籍か、コミック版でフォーカスされたのかもしれませんが。
これもアニメから入ったのですが、話の展開が面白く、Web版を一気に読み進めた記憶が残っています。アニメとWeb版しか知りませんが、あまり違和感はありませんでした。アニメ化されていない先の展開も結構面白く、今後が楽しみな話の一つです。
気持ちが疲れたときなどにおすすめですw
水属性
アニメネタを書いたところ微妙にアクセス数が多かったので、アニメネタでも。
ここのところ、なろう系原作のものがやたらとアニメ化され、量産されましたが、量産型の宿命か新作アニメがどれもこれも低予算な作りで悲しい気がしています。
そんな中、個人的な嗜好を言えば最近だと「水属性の魔法使い」がアニメから入ったのですが結構好きです。Web版と少し設定が異なっていたりしていますが、大筋でアニメ化としてはいい感じで話が展開していると思います。書籍やコミック版は読んでいないのでわかりませんが、書籍版はコレクションとして欲しいかなと、、、、、一時期悩んでいたりしましたが、忙しくなってきたので今現在購入には至っていません…。
なろう系の話として読める文章として読みやすい文体で普通の小説として読めるのもちょっと驚いたのですが、Web版と書籍版の切り分けを結構うまくやってそうな雰囲気があります。(なので購入しようか本当に悩んでいましたw)
アニメはアマゾンプライムは、そもそも有料ですが、abemaなどでは特に有料契約しなくても結構期間限定で無料公開していたりして見ることができるので、ファンタジーが好きな方ならお勧めします。文字を読むのが苦でなければ、なろうのweb版を読むのも楽しいと思います。
2026年3月13日金曜日
uvのキャッシュが…
特に新しいmodelを入れたわけではないのだけれど、気づけば98%の使用率。
ちょっとpythonのbackendをかなりてこずりながら動作環境を右往左往しながらやっているので、uvがかなり肥大化しているんだろうなとは思っていましたが…
siriuth@b4turbo-2:~$ du -sh ./.cache/*
796M ./.cache/go-build
4.0K ./.cache/goimports
15G ./.cache/huggingface
4.0K ./.cache/llama.cpp
32K ./.cache/matplotlib
0 ./.cache/motd.legal-displayed
130M ./.cache/neo_compiler_cache
9.3G ./.cache/pip
129G ./.cache/uv
28K ./.cache/vllm
129Gって…(笑)
使い方がよく分かっていないのと、複数のバージョンを闇雲にインストールしている結果でしょう。
一気に捨ててもいい気もする…
https://qiita.com/takurot/items/2d7a8436047dc7cc76be
より、
# 使っていない古いキャッシュのみ削除
uv cache prune
# 全削除したい場合
uv cache clean
とのことなので、とりあえずpruneしてみました。使ってない判断はリンクでもたどっているんでしょうかね?
siriuth@b4turbo-2:~$ uv cache prune
Pruning cache at: .cache/uv
Removed 454722 files (99.1GiB)
とりあえずこんなとこでしょうか。
2026年3月11日水曜日
1台だけスタートメニューがムカつくのですがw
先月2月のWindowsUpdateか1月のものか定かではありませんが、WindowsStartメニューが切り替わって、正直なんか使いづらいのです。
デスクトップPCもそのうち切り替わってめんどくさっとか思っていたのですが、いつまでたってもメイン以外のPCのスタートメニューは昔のままです。まぁそうはいっても使いづらいですが。
気になったときにバージョンを確認しても違いは無いようですが、何なんでしょうこの違いは…。
設定>個人用設定>スタート
の設定項目も同じバージョンで違ってるし(笑)
powershellで表形式の表示
最近動けばいいやと、powershellでスクリプトで処理させていると結構楽しくなってきます。
使うほどに気になるのは、細かいところで、エラー処理とか出力内容とか。
ファイルのタイムスタンプ操作で設定前と設定後の値を表示させていたのですが、表示方法をもう少し何とかならないかと。
どうせならpowershell風なテーブル表形式でもと思ったら、結構厄介。
オブジェクトのメンバ変数なら配列に入っていればそれなりになるはずだけど…そうでない場合は?という事で連想配列の配列で対応してみる。
助長ではあるもののこんな感じかな?
$vals = @()
$vals += [ValsClass]::new("new", $CreateTime, $LastWriteTime)
$vals += (@{Name="old"; CreateTime=(Get-ItemProperty $To).CreationTime; LastWriteTime=(Get-ItemProperty $To).LastWriteTime})
$vals += (@{Name="from"; CreateTime=$CreateTime; LastWriteTime=$LastWriteTime})
この配列を表示させるとこんな感じに。
Name Value ---- ----- LastWriteTime 26/03/10 21:58:57 CreateTime 26/03/05 17:21:03 Name old LastWriteTime 26/03/05 17:21:08 CreateTime 26/03/05 17:21:03 Name from
これをSelect-Object * | Format-Table すると
LastWriteTime CreateTime Name
------------- ---------- ----
26/03/10 21:58:57 26/03/05 17:21:03 old
26/03/05 17:21:08 26/03/05 17:21:03 from
[orderd]にしないと連想配列内の順序が保たれなくなるから、ですが、実装の処理上、末尾が最初にくる感じになってるみたいですね。
なので、連想配列の順序を保つために[orderd]@{}形式で配列に格納して表示させると
Name Value
---- -----
Name old
CreateTime 26/03/05 17:21:03
LastWriteTime 26/03/10 22:11:10
Name from
CreateTime 26/03/05 17:21:03
LastWriteTime 26/03/05 17:21:08
良い感じがしますが、これをSelect-Object * | Format-Tableさせてみると
Count IsReadOnly Keys Values IsFixedSize SyncRoot
----- ---------- ---- ------ ----------- --------
3 False {Name, CreateTime, LastWriteTime} {old, 26/03/05 17:21:03, 26/03/10 22:11:10} False {[Name, ol…
3 False {Name, CreateTime, LastWriteTime} {from, 26/03/05 17:21:03, 26/03/05 17:21:08} False {[Name, fr…
となってしまいまいました。Select-Object *の状態をみてみると
Count : 3
IsReadOnly : False
Keys : {Name, CreateTime, LastWriteTime}
Values : {old, 26/03/05 17:21:03, 26/03/10 22:11:10}
IsFixedSize : False
SyncRoot : {[Name, old], [CreateTime, 26/03/05 17:21:03], [LastWriteTime, 26/03/10 22:11:10]}
IsSynchronized : False
Count : 3
IsReadOnly : False
Keys : {Name, CreateTime, LastWriteTime}
Values : {from, 26/03/05 17:21:03, 26/03/05 17:21:08}
IsFixedSize : False
SyncRoot : {[Name, from], [CreateTime, 26/03/05 17:21:03], [LastWriteTime, 26/03/05 17:21:08]}
IsSynchronized : False
といった感じのオブジェクトになっています。これをいい感じにSelectなんとかしてFormatなんとかする方法が無さそうだったので、別の切り口を試してみました。
さらに助長になりそうですが、クラスを定義してオブジェクトの配列にしてみます。
class ValsClass{
$Name
$CreationTime
$LastWriteTime
ValsClass($Name, $CreationTime, $LastWriteTime){
$this.Name = $Name
$this.CreationTime = $CreationTime
$this.LastWriteTime = $LastWriteTime
}
}
$vals = @()
$vals += [ValsClass]::new("old", (Get-ItemProperty $To).CreationTime, (Get-ItemProperty $To).LastWriteTime)
:
$vals += [ValsClass]::new("new", (Get-ItemProperty $To).CreationTime, (Get-ItemProperty $To).LastWriteTime)
これを表示させてみると
Name CreationTime LastWriteTime
---- ------------ -------------
old 26/03/05 17:21:03 26/03/11 00:16:58
new 26/03/05 17:21:03 26/03/05 17:21:08
となってSelectなんとかとかFormatなんとかせず、目的の形で出力できました。
PSObjectとしてやったらもっとスマートな感じになりそうですが、とりあえずこれでいいか。
2026年3月5日木曜日
ボツネタだった履歴が思った通りにできた…
昨日ボツネタの愚痴を書いたわけですが、ようやく解決しました。
なんとなくPowerShellのHistoryと実際の履歴は別物というのは感じていたのですが、ドキュメントを読み進めていくと、どのように動いているのかが分かりました。
分かったうえで、最初はC#を経由して触らないとダメかな?と考えてヘルパーとしてスクリプトモジュール(.psm1)でも作っておくのが便利かな?とか。
でも、もっと単純でした。
[Microsoft.PowerShell.PSConsoleReadLine]::AddToHistory()
を呼び出すだけで単純にPowerScriptのコンソール内で動いているPSReadLineの履歴に入れることができました。
これで、一連の動作内でまとめたスクリプト内で呼び出している内容を履歴に入れて、部分的に再実行させることがしやすくなりました。デメリットとしては不要な履歴が追記されるので履歴のトルグで遡るときに邪魔になりますが、現段階では処理を取りまとめただけなのでデメリットを感じることは無いでしょう。
このメソッドの実装はあくまでPSReadLineの履歴に記録されるだけなので、PowerShellのHistoryには干渉していないので、そこまで反映させる場合は別途Set-Historyなどを行う必要があるでしょう。
ただし、(Get-PSReadLineOption).HistorySavePathには保存されているようなので、それを回避する場合はもっと何か考えないとダメかも。
あと、コンソール以外の実行状態(VisualStudioCodeのコンソールとか)だとPSReadLineが実装が違っていてエラーがでたり、するのかな?
まぁスッキリできたと。
2026年3月4日水曜日
ボツネタ PowerShellのコマンドライン履歴
ボツネタというか、四方八方試した感じだとダメそうという結果に…
コマンドライン履歴って便利だなぁと感じる一方、欲が出ると際限のない欲にかられる機能と思われますが、それでもPowerShellで結構いい感じに便利にはなってると思います。
ふとしたタイミングで[F2]キーを押して入力履歴が表示されてなんかスゴっ!とか思ったり。
それでなくても補完機能もそれなりに便利な感じで、ある定型の一連の処理があったとき、
PS > 出力ディレクトリの設定 T:\
PS > 加工処理するファイル群 C:\User\siriuth\documents\シーン1_*
PS > 加工処理するファイル群 C:\User\siriuth\documents\シーン2_*
PS > 加工処理するファイル群 C:\User\siriuth\documents\シーン3_*
なーんて処理をし続けてても、「出」と入力するだけで
PS > 出力ディレクトリの設定 T:\
と補完候補が表示された状態になるのはとても便利だったりします。
スクリプトに日本語を使っちゃうのはどうかとは思いますが(笑)
で、いろいろと作業が増えてくるとこいつらの処理の前後にどんどん作業が追加されていくわけです。臨機応変というより気分によったり状況に応じて。
そうするといくつかの処理を一纏めにしたり分割したりを繰り返していくわけですが、そうすると、アンカーの時間設定などが引数として内部に隠れてたりするわけです。
その値だけを微調整したいなぁ…なんて時に、コマンドラインの履歴で、例えば[↑]キーを押して表示されると便利だなぁ…と、思って調べてみると「Add-History」とか「Set-History」とかあるわけです。
時間ができたので色々やってみたのですが…惜しいところまではいくんですよ(笑)Get-Historyとかで表示させると確かにHistoryには載っている。ただ、コマンドラインの[↑]とか[↓]とか押しても反応しない…(Get-PSReadLineOption).HistorySavePathのファイルを見ても追記されていない。まぁそうだよねぇw
で、PSReadLineの方を見てみると、なんか色々できそうな上に拡張もできそうという事実。
でもそうじゃないんだ。今やりたいことは、、、、
という事であきらめてコピペできる様に表示させるだけで我慢しておこうかと思います😢
2026年3月1日日曜日
〇ソWindows
もうタルすぎる…
ちょいちょい地味に何かの処理がリアルタイム処理を邪魔してラグる…。
Windowsログを見る限りこれと言った痕跡はないものの、時刻設定などでエラーがチラホラ。
Wifiやルータ周りの設定を見直して、ルータなどの再起動は何度か行ってはいるものの、なぜか自動再接続されない状態になっていた。
このPC以外はこれと言った問題は無さそうなのですが…
で、とりあえず問題なさそうなので放置してたらセキュリティーアップデートがかかってて、終わった10分後ぐらいにラグ発生。ログには原因特定に至るものはないし…困った。
とりあえずネットワークから切り離してスタンドアローン状態にしましたが…なんだろうねぇ…このPCで初めての現象。
一番ありえそうなのが、昨日買ったUSB-HUBからノイズが出るようになって電波が不安定なのかな?
ラグるタイミングはWifiの接続が切断マークに変わったときに発生してるのを目撃したのだが…なぜかそのときは数十秒でWifi再接続されていた。わからんw
2026年2月22日日曜日
v3.12.1 リリース
昨日か一昨日か夜中にgithubをチェックしたときにv3.12.0がリリースされているのを見て、いつも通りビルドしておこうかな…と思っていました。で、時間が取れたので今見てみると20時間前に3.12.1がリリース状態になっていたらしく。
主な変更点としてはUI関連の調整はもちろんの事、スピーチ系のバックエンドの強化や実行環境整備が主な変更点となっていました。
v3.12.1で気になるのはlocalai-botがllama.cppのベースのバージョンをアップデートしている点でしょうか。
v3.11.0で少しだけチャットの出力が乱れているように感じたのでllama.cppのバージョンが変更されているのは気になります。
2026年2月12日木曜日
認識しなくなった USB-HDDドライブ を再度接続できるようにする方法?
先日、特定のUSBポートで接続できなくなっていたドライブですが、USB2.0経由のUSB-HUBに接続してとりあえず使っていましたが、さすがにUSB2.0のスピートでは厳しいので、書き込みキャッシュを有効にしてみた。しかし、あまり体感速度が上がらなかったので元に戻そうとしたところ、こんなエラーが。
このエラーが出た後、プロパティーのページでは三角の!マークが追加され変更できなくなりました…。
この状態でドライブの取り出しを行ってから物理的にUSBをさしなおすと、そのポートでこのドライブが認識できない状態に陥りました…。
まだ、USB-HUBの空きポートがあったのでもう一度別のUSBポートで繰り返してみましたが、同じ状況になりました。
再起動しても認識しなくなったポートはそのまま認識しないという状況に。
そもそも書き込みキャッシュが有効になってるかどうかも怪しい状況ですが、とりあえずデバイスマネージャを開いて、USB-HDDに関連するものをアンインストールしてみました。
以前、これを行って状況は改善しなかったので正直あまり期待はしていませんでしたが…
なぜか今回はこれで状況が改善してしまいました。
詳細に説明すると、デバイスマネージャを開いて、メニューの 表示>デバイス(接続別)を選択して、表示方法を接続別にします。さらに 表示>非表示デバイスの表示 をチェック状態にして手持ちの環境だと
コンピュータ名\ACPI x64ベース PC\Microsoft ACPI-Compliant System\PCI Express ルートコンプレックス\Intel(R) USB 3.0 eXtensible Host Controller - 1.0 (Microsoft) \USB ルート ハブ(USB 3.0)
以下にぶら下がっている
USB 大容量記憶装置\BUFFALO External HDD USB Device
をアンインストールしてからUSB 大容量記憶装置をアンインストールしました。(正式な操作方法が分からないので、末端から順番に削除した形です)
(さらに、これまで接続した後認識しなくなったポートで残っている、PC本体のUSB 3.0にぶら下がっているデバイスと、USB 2.0のポートにぶら下げたUSB-HUB経由のデバイスをすべて削除しました)
使用していて問題となっているデバイスが複数あって判断できない場合は中を見て詳しく調べたうえでアンインストールする必要がありますが、間違ったとしても再度USBを指しなおすか、再起動すれば自動的にデバイスドライバはインストールされ、ドライブ文字列が変わる程度だと思います。
そもそも書き込みキャッシュを一度有効にすると無効にできないという状態ではあるものの、認識しなくなったUSBポートでも再度認識できるようになりました。
2026年2月8日日曜日
v3.11.0
そろそろかなと思ってみてみたんですが、6時間前にリリースとありました。
主なポイントは、Realtime Audio, Music Generation UI, ASR (Speech-to-Text)とTTS のバックエンドサポートという事です。
localAIを見ていると精力的な取り込みを行っているので流行などを意識しやすくなっている気がします。
ちなみに…前回の.1バージョンは本体のビルドとllama-cppぐらいしかビルド行っておらず…(笑)
色々な感覚が分かってきたので、もう少しいろいろなbackendのUbuntu環境でのビルドが行えるような気はしてます。
てか、今旬なのはローカル環境のネットワーク上の名前解決だったりします(笑) 全然AIと関係ないレベルで気になって仕方がなくw
2026年2月5日木曜日
いい加減タイムゾーン設定しておかないと…
問題がないとあまりログとか見ませんが、切り貼りしているテキストにチラホラ日時が入っていてそのうちやっておかなきゃなぁ…とは思っていたのですが(笑)
ubuntu Server 20.04.3 LTS ロケールとタイムゾーンの設定
こちらの内容で設定指定しておきました。
siriuth@b4turbo-2:~$ localectl status
System Locale: LANG=ja_JP.UTF-8
VC Keymap: (unset)
X11 Layout: us
X11 Model: pc105
siriuth@b4turbo-2:~$ sudo localectl set-locale LANG=ja_JP.utf8
siriuth@b4turbo-2:~$ date
Wed Feb 4 04:04:26 PM UTC 2026
siriuth@b4turbo-2:~$ timedatectl status
Local time: Wed 2026-02-04 16:04:43 UTC
Universal time: Wed 2026-02-04 16:04:43 UTC
RTC time: Wed 2026-02-04 16:04:43
Time zone: Etc/UTC (UTC, +0000)
System clock synchronized: yes
NTP service: active
RTC in local TZ: no
siriuth@b4turbo-2:~$ sudo timedatectl set-timezone Asia/Tokyo
siriuth@b4turbo-2:~$ timedatectl status
Local time: Thu 2026-02-05 01:05:14 JST
Universal time: Wed 2026-02-04 16:05:14 UTC
RTC time: Wed 2026-02-04 16:05:14
Time zone: Asia/Tokyo (JST, +0900)
System clock synchronized: yes
NTP service: active
RTC in local TZ: no
以下 ダメだった参考
こちらを参考にして、まずは時刻を設定を…とやってみたのですが、
siriuth@b4turbo-2:~/landscape-client24.02$ ntpdate -s -b ntp.jst.mfeed.ad.jp Command 'ntpdate' not found, but can be installed with: sudo apt install ntpsec-ntpdate siriuth@b4turbo-2:~/landscape-client24.02$ sudo apt install ntpsec-ntpdate
タイムゾーンがせっていしきれていないのので…
ntpdate -s -b ntp.jst.mfeed.ad.jp
をやってもローカル時間が変わらないという(笑)
なので、
Linux – Ubuntu でロケールを日本に設定する方法について詳しく解説 https://pystyle.info/linux-set-locale/
こちらを参考に、
sudo apt install -y locales sudo sed -i '/^# *ja_JP.UTF-8 UTF-8/s/^# *//g' /etc/locale.gen sudo locale-gen sudo update-locale LANG=ja_JP.UTF-8
ローカルを設定しても変わらず…
landscape-sysinfoの温度バグ
pythonスクリプトなら結構楽に色々できそうと思っていましたが、思っていた以上に面倒くさい状態のようです。
なんでライブラリ的なパッケージを導入してるんでしょうかね…スクリプトごときに…
と、愚痴りますが、とりあえずubuntuに導入されているパッケージがなにか不具合を起こしていることを確認できました。
最初はscript内に存在するコードを直に実行して何とかしようとしましたが、インストールしているパッケージのモジュールが呼び出されてしまうので /usr/bin/landscape-sysinfo を実行したものと同じ結果になりました。
スクリプトを弄りながら確認を始めましたが、結局のところ、landscape-sysinfo.pyで行ってることを実際に手で行ってみることが一番ゴールに近かったです。
結果がこちら
siriuth@b4turbo-2:~/landscape-client24.02$ python3 Python 3.12.3 (main, Jan 8 2026, 11:30:50) [GCC 13.3.0] on linux Type "help", "copyright", "credits" or "license" for more information. >>> import sys >>> from twisted.internet import reactor >>> from landscape.sysinfo.deployment import run >>> run(sys.argv[1:], reactor) RUN!!!!!! System load: 0.0 Usage of /: 81.4% of 465.88GB Memory usage: 2% Swap usage: 0% Temperature: 33.0 C Processes: 149 Users logged in: 1 IPv4 address for wlp1s0: XXX.XXX.XXX.XXX IPv6 address for wlp1s0: XXXX:XXXX:XXXXX:XXXX:XXXX:XXXX:XXXX:XXXX <Deferred at 0x728e0be1db20 current result: None> >>> quit() siriuth@b4turbo-2:~/landscape-client24.02$ sensors acpitz-acpi-0 Adapter: ACPI interface temp1: +27.8°C coretemp-isa-0000 Adapter: ISA adapter Package id 0: +31.0°C (high = +105.0°C, crit = +105.0°C) Core 0: +26.0°C (high = +105.0°C, crit = +105.0°C) Core 1: +26.0°C (high = +105.0°C, crit = +105.0°C) Core 2: +27.0°C (high = +105.0°C, crit = +105.0°C) Core 3: +27.0°C (high = +105.0°C, crit = +105.0°C) siriuth@b4turbo-2:~/landscape-client24.02$ sensors acpitz-acpi-0 Adapter: ACPI interface temp1: +27.8°C coretemp-isa-0000 Adapter: ISA adapter Package id 0: +32.0°C (high = +105.0°C, crit = +105.0°C) Core 0: +28.0°C (high = +105.0°C, crit = +105.0°C) Core 1: +28.0°C (high = +105.0°C, crit = +105.0°C) Core 2: +28.0°C (high = +105.0°C, crit = +105.0°C) Core 3: +28.0°C (high = +105.0°C, crit = +105.0°C) siriuth@b4turbo-2:~/landscape-client24.02$ sensors acpitz-acpi-0 Adapter: ACPI interface temp1: +27.8°C coretemp-isa-0000 Adapter: ISA adapter Package id 0: +33.0°C (high = +105.0°C, crit = +105.0°C) Core 0: +26.0°C (high = +105.0°C, crit = +105.0°C) Core 1: +26.0°C (high = +105.0°C, crit = +105.0°C) Core 2: +26.0°C (high = +105.0°C, crit = +105.0°C) Core 3: +26.0°C (high = +105.0°C, crit = +105.0°C) siriuth@b4turbo-2:~/landscape-client24.02$ sensors acpitz-acpi-0 Adapter: ACPI interface temp1: +27.8°C coretemp-isa-0000 Adapter: ISA adapter Package id 0: +31.0°C (high = +105.0°C, crit = +105.0°C) Core 0: +26.0°C (high = +105.0°C, crit = +105.0°C) Core 1: +26.0°C (high = +105.0°C, crit = +105.0°C) Core 2: +26.0°C (high = +105.0°C, crit = +105.0°C) Core 3: +26.0°C (high = +105.0°C, crit = +105.0°C) siriuth@b4turbo-2:~/landscape-client24.02$ /usr/bin/landscape-sysinfo System load: 0.03 Usage of /: 81.4% of 465.88GB Memory usage: 2% Swap usage: 0% Temperature: 46.0 C Processes: 148 Users logged in: 1 IPv4 address for wlp1s0: XXX.XXX.XXX.XXX IPv6 address for wlp1s0: XXXX:XXXX:XXXXX:XXXX:XXXX:XXXX:XXXX:XXXX siriuth@b4turbo-2:~/landscape-client24.02$
実行した後にsensorsで確認したら2度ほど違ったので、何度か繰り返したら同じ温度になりました…結構シビアに温度が変わるんですね…
とは言え、最後に /usr/bin/landscape-sysinfo を実行すると10度以上違う数字になったので、まぁバグでしょね…ubuntuで使用されているソースを見て確認しても多分原因はわからなさそうですし、この件はこれで終了でいいかな。解消はしないけど(笑)
ちなみに「RUN!!!!!!」はtemperature.pyスクリプト内でprint()を入れて確実に実行されているか確認するためのデバッグメッセージです(笑)
2026年2月3日火曜日
クソupdate
先日Windows Updateがかかっていたので気になっていたのですが、どうもエクスプローラの動きが怪しいです。
開いているフォルダ内のファイルが増えたときに更新されず、毎回F5キーを押すなどして更新してあげないとファイルが表示されなくなりました。
今までも、途中で更新されなくなったりすることはあったのですが、現在は再起動しても何しても更新されなくなりました。
とは言え、更新されるパターンもあります。開いているフォルダ内のファイルが全て削除された後に、ファイルが増えるパターンの場合は更新されています。
今だとどうだかわかりませんが、フック周りの処理が悲しいことになってそうです。
さらに、別のPCではUSB-HDDが本体のポートで認識されなくなりました。HUBをかませると認識するという、謎な現象が起ってしまいました。いままでも同様の状態に陥ったことはありますが、今回はハッキリとWindowsUpdateがかかったあとからUSB-HDDが使えなくなっている…。いままでもWindowsUpdateが原因だったのかなぁと思うと非常に腹が立ちますが(笑)
(2026/02/12追記 後日、HDDを認識できるようになりました。→認識しなくなった USB-HDDドライブ を再度接続できるようにする方法? )
正直、ドライブが逝ったかと焦りましたが、USBを差し込んだ後にUSBデバイスを認識しなくなってしまったので…。昔は関連するデバイスドライバをアンインストールとか削除すれば認識してくれたのですが、Windows11だとこの状態から認識してくれるようになってくれないんですよね…。
USB周りのデバイス状態を詳しく調べるしかないのかな…それかいっそのこと再インストールとか?…WindowsUpdateの前の状態に復元でもいいのかもしれないけれど…
ターミナルログイン時に表示される温度
ターミナルでログインした直後に表示される温度。
Welcome to Ubuntu 24.04.3 LTS (GNU/Linux 6.14.0-37-generic x86_64)
* Documentation: https://help.ubuntu.com
* Management: https://landscape.canonical.com
* Support: https://ubuntu.com/pro
System information as of Tue Feb 3 04:46:24 AM UTC 2026
System load: 0.07
Usage of /: 81.4% of 465.88GB
Memory usage: 2%
Swap usage: 0%
Temperature: 44.0 C
Processes: 153
Users logged in: 0
IPv4 address for wlp1s0: XXX.XXX.XXX.XXX
IPv6 address for wlp1s0: XXXX:XXXX:XXXX:XXXX:XXXX:XXXX:XXXX:XXXX
* Strictly confined Kubernetes makes edge and IoT secure. Learn how MicroK8s
just raised the bar for easy, resilient and secure K8s cluster deployment.
https://ubuntu.com/engage/secure-kubernetes-at-the-edge
Expanded Security Maintenance for Applications is not enabled.
13 updates can be applied immediately.
To see these additional updates run: apt list --upgradable
1 additional security update can be applied with ESM Apps.
Learn more about enabling ESM Apps service at https://ubuntu.com/esm
Last login: Tue Feb 3 04:37:42 2026 from XXX.XXX.XXX.XXX
siriuth@b4turbo-2:~$
この温度は一体どこから取ってきているのだろうと気になっていました。
まともにLinuxがインストールできていればファイルシステムのどこからかは何らかの数字は拾えるはずです。
実際に見てみると
siriuth@b4turbo-2:~$ cat /sys/class/hwmon/hwmon1/temp1_input
34000
34度
他にもいくつかあるようなのでツールをインストール
sudo apt install lm-sensors
sudo sensors-detect
設定してあげると、ファンや電圧も取得できるらしいので設定してみましたが、現状では温度しか拾ってこれませんでした。あと、何度も設定を行って無意味にyesのみ繰り返していくと最後に/etc/modulesにチップドライバーの情報を追記するので、何度も行うと同じ値が何度も追記されていくという…(笑)
siriuth@b4turbo-2:~$ sensors
acpitz-acpi-0
Adapter: ACPI interface
temp1: +27.8°C
coretemp-isa-0000
Adapter: ISA adapter
Package id 0: +35.0°C (high = +105.0°C, crit = +105.0°C)
Core 0: +30.0°C (high = +105.0°C, crit = +105.0°C)
Core 1: +30.0°C (high = +105.0°C, crit = +105.0°C)
Core 2: +30.0°C (high = +105.0°C, crit = +105.0°C)
Core 3: +30.0°C (high = +105.0°C, crit = +105.0°C)
こんな感じになりました。
やはり30度程度で40度越えの数字は表示されず…いったいどこの温度なのでしょう?
ログイン時に実際に表示されているものは
sudo cat /etc/update-motd.d/50-landscape-sysinfo
で、中を見ると、landscape-sysinfoが実行されたりキャッシュが表示されたりしている感じですが、デスクトップ版ではこのlandscape-sysinfoはインストールされず、別途インストールする必要があるようです。
Ubuntuログイン時に表示されるシステム情報を出力するコマンド
sudo apt install landscape-common
で、結局、landscape-sysinfo内でどうやって温度を取ってきているか?という疑問にたどり着くわけですが…。
とりあえずgit-hubを検索したらそれっぽい感じの
https://github.com/canonical/landscape-client
があったので、ソースを見てみるとpythonみたいですね。
バージョンの違いによる差はあまりないようで…一応バージョン確認してみると
siriuth@b4turbo-2:~$ /usr/bin/landscape-sysinfo --version
24.02-0ubuntu5.7
となっているので、24.02のタグに切り替えてみてみましたが…やってることは1000で割って単位にCを入れてその中の最高値を取得しているだけ。
Landscape-sysinfo shows wrong temperature in Ubuntu Server
(個人的にあまり信用していない)Redditでも出てきますが(元ネタはおそらく…
日付を見ると5年前から上がってます。見る限りpython3で実行するとちゃんとした値が返ってくるものの、実際にlandscapeを動かすと高い温度が返ってくるという。
しかし、解決策はないみたいです。
考えづらいですが、瞬間的にどこかの温度だけ高温になってしまうんでしょうかね?
2026年1月24日土曜日
v3.10.1 まさかの小数点2桁アップ
珍しいバージョンアップが昨日あったようです。
主な追加機能としてQwen3-TTSに対応したという事です。細かい点は全く分かりませんが…。
3.10.0のbackendもllama-cppぐらいしか通していませんでしたが、これから3.10.1に切替て遊んでみましょうか…
2026年1月21日水曜日
v3.10.0
LocalAIの小数点のバージョンアップは大体1ヵ月ぐらいなんでしょうかね。
3.10がタグ付けされたのは昨日知ったのですが、本体のビルドは何の問題もなく済むようになりました。backendはまだllama-cppぐらいしか行けてない感じですが、それでもdockerを挟まなくていいのと、CPUと機GPUを同時に使う形になる様に小手先の調整をしたりして試しています。
バージョンアップは能的に何が変わっているというのは毎回悩みどころだったりしますが、今回は各dockerイメージが統一化しているようです。(すでに使ってないのでわかりませんが)
今のところ、できる限り仮想化させずに動作させている都合上、結果的にbackendsからインストールする形ではなく、backend内のビルドスクリプトを整備して起動時にLOCALAI_EXTERNAL_GRPC_BACKENDSに設定して動作させる形で落ち着いています。
2026年1月20日火曜日
アニメ ヘルモード 第二話の音のバランスがおかしい
なろう小説で数年前に上がっているものは読み切ったのですが、設定は面白いのですがいかんせん話が長く(笑)
嫌いじゃないのですが、アニメ化されたという事で見た感じガッツリ低予算アニメで残念でした。
とは言え、2話目を見始めて違和感が…音はしているのだけれど声がよく聞き取れず、ボリュームを上げようとしたところ通常のボリュームよりは大きめになっている…。しばらく真面目に見ているとどうやらBGMの音量が大きくて音声をつぶしている感じに気づきました。音楽だけれなく、背景音なども結構うるさい。無意味そうな虫の音なども結構うざく(笑)
イコライザーで少し弄ってやらないとまともにきいていられないかも。
ヌルヌル動いて作画崩壊も起こさないで綺麗なアニメの方がいいとは思うが、低予算でももう少しなんとかしてほしいレベル。そしてこの音のバランス…いろいろ不安しかありません。
ポーション、わが身を助けるなんて結構紙芝居アニメでの最終形態に近い気がする。
2026年1月12日月曜日
gemmaの画像認識
LocalAI 3.9.0でテキストのチャットは安定しているようなので、せっかくなのでいろいろ遊んでみようかと。
最初のころ(3.6.0ぐらいかな?)テキストファイルやPDFや写真をLLMに提示したときの反応を試したことがあったものの、写真に関してあまり上手くいかず、何が引っ掛かっているのか良く分からず、その後、3.7.0や3.8.0ではWebUI上のチャットインターフェイス(ChatterBox?)がうまく機能していなかったので放置していました。
とは言え、現状では必要なmmprojはgemma3のものしか自動的に設置されないので、LLMにマルチモーダル機能があったとしてもllama-cppでggulを使って動かすと別途mmprojが必要になるという。元となるモデルファイルやsafetensorsファイルを直接動かす形であればすべてがそろっているのでそれをllama-cppから直接使えればと考えましたが、現実的には元となるファイルから変換してmmproj~.ggulファイルを作成する形になっているようですね(できるのかどうかはやってみるまで分かりませんが)。
とりあえず、手元にあるものだけで動かせるもので動かしてみると…何も考えずに画像の認識をしてくれました。試したモデルはgemma-3-4b-it-qatとかgemma-3-12b-it-qatで試してみました。どちらもあまり差は感じませんでした。ただ、画像認識後の出力時に色々な制限がかかり答えてくれなかったりすることがありました。(例えば女性の写真などを認識させたうえでバストサイズなどを聞いた場合は、推定であっても直接的な質問では答えてくれませんでした。理由は個人情報のため、答えられない。といった感じだったかな?性的にどうのこうのより、撮影された本人が聞かれて直接答えたくないような質問は返さないような印象を受けました。)
画像認識に関しては予想していた以上にまともに返されました。例えば適当な場所で撮影した写真を見せても、それなりに撮影場所、此処の被写体、撮影時の状況を認識してくれました。極端な外れは無さそうかな?というのが感想です。
年末27日に発生した関越道の事故現場の写真を使ってみましたが、例えばトラックの台数や乗用車の台数などザックリと数えたりしてくれましたし、燃えてしまった車の台数も推定で構わないと条件付けしたところそれなりに数えてくれました。
あと、カスタマイズされたモデルでも試したのですが、黒人の顔写真を用意しましたが、ちゃんと黒人と認識しました。一時期ゴリラと区別ができないと話題になっていましたが、識別していて、「ゴリラではないのですか?」と聞いたところちゃんと違う点も説明してくれました。
これだけの認識力があるなら、大量の写真の自動整理も手軽に行えそうです。
PDFも画像が含まれたPDFを要約してもらったのですが、結構いい感じで要約してくれました。下手なナナメ読みよりしっかりと要約してくれるので、大量のPDFファイルの中から何かを探すときにも使えそうです。なにより、PDFってファイル名が良く分からないものが多かったりするのでこの辺の機能も単純に便利そうです。
それとは別に、他のモデルも再度触りなおしてたりします。IBMのモデルを触ってみましたが、以前よりもっとまともに反応が返ってくるような?3.6.0の頃は結構ボロボロだったのかな?gemma3と比べて知識ベースが結構しっかりしてくれている感じです。モデルサイズによって知識の深さは確実に違うのですが、それでもgemmaよりまともに(学習時点での)日本の総理大臣とか答えてくれます。ただ…花高々と経歴まで紹介してくれるのですが、A部元総理は共産党出身らしいです…平気で嘘ついたりするので全く信用なりません(笑)
2026年1月8日木曜日
localaiのbackendとしてのvllmのビルド中
cpu単体で動かせるようにビルドまでたどり着いた感じです。
ビルドと言っても、pythonなので実行環境の構築となるわけですが、oneAPIを使用する形にするとビルドスクリプトが通らなくなります。おそらくoneAPI周りのアップデートをかけてしまっているため、必要なパッケージがそろわずpythonの実行環境を作ることができませんでした。
ビルド中に色々見ていくと不安要素とか、制約条件やらが明らかになるにつれて絶望しかないのですが(笑)
vllmの利点は実行時に使用されるkvキャッシュの効率が(各段に)良くなるという点。
難点としては、使用メモリがほぼオンメモリになる点。
さらなる懸念としてインテル系のcpuの記載を見るとxeonしか見当たらないし、要件にCPU flags: avx512f (Recommended), avx512_bf16 (Optional), avx512_vnni (Optional)とあり、必須ではないけれども…(笑)
表現としては
Required, Recommended, Optional
必須、推奨、任意
(参照)
で、必須ではないから動かせるという認識なのですが…アッテマスヨネ?
そして実際に実行してみると、実際に扱えるファイルがgguf形式ではなく、その前の状態のファイル群だということ…早速用意して実行すると、モデルを読み込んでいくだけでシステム上のメモリがガンガン減ります。ここで初めてllmの動作にメモリが必要なんだと実感しました(笑)
そしてトドメに
Unexpected err=RuntimeError("Engine core initialization failed. See root cause above. Failed core proc(s): {'EngineCore_DP0': -9}"), type(err)=<class 'RuntimeError'>
というメッセージとともに処理が打ち切られました。
2度ほどgeminiに聞いてみたのですが、確実にメモリーが足りていなく、OSレベルでOut of memory: Killed processとして処理されてしまっている感じです(笑)
geminiから提示されている回避方法として、量子化されたものを使用する。とか実行時のメモリーをできる限り抑える方法が提示されました。が、どちらも無意味っぽい。
まず量子化されたものというのが、現状ではCPUだけではAWQ GPTQ INT8(W8A8)(参照)しかサポートされておらず、ggufファイルはサポートされていないという点。(genma3nのggufファイルを読み込ませたときのエラーメッセージはgemma3nのgguf形式は読み込めないと出たので、もう少し古いタイプのggufファイルならいけると思っていたのですが、調べてみるとだめそう)ちなみに、IntelGPUも同様にggufはダメなので、たとえ実行環境をそろえても手持ちのファイル群は使えそうにない。
小さいモデルで量子化されたファイルを用意してあげればいい感じで動いてくれるのかな?

