2026年3月31日火曜日

妄想

🤖「結論から言うと、llama.cpp側の --override-tensor オプションは、LocalAIのYAML設定内で tensor_overrides(またはバックエンドへの直接引数渡し)として記述することが可能です。」

あったらよかったんだけどね…ありませんでしたよ。そんなもの…。

〇タップ細胞じゃないですが、さもあるように言われると期待しちゃったじゃないですか…ほんとに… 

2026年3月30日月曜日

MedGemma 1.5 矛盾した問いかけ

Qwen3.5とか出てるならgemmaの方は何かないのかな?とちょっと見てて

Gemma のリリース を見てました。シリーズとしてはLLMだけではなく、その他ツールも含まれていて今まで全く知らなかったMedGemmaなるものが。

2025/03/10にGemma3がリリースされた後、二か月後の2025/05/20にMedGemma、その翌月となる2025/06/25にGemma3nがリリースされていたようですが、MedGemmaなんて本当に知りませんでしたよ。

2026年3月28日土曜日

localAI Qwen_Qwen3.5-4B-Q4_K_M.ggufで思考表示モードの抑止

Qwen3は動かした気がしたのですが、3.5がlocalAIのギャラリーに並んでて少し気になったので動かしたのですが、何気に回答するまでの思考プロセスが言葉で表示され、かなり時間がかかった後に回答が得られるので、何とかならないかと少し検索していました。

2026年3月27日金曜日

localAIでのRakuten AI 2.0 mini

結構試行錯誤の末になんとなくまともに動くようになった感じです。(contextの大きさなども含め動くだけの設定ですが。)

色々と試行錯誤してみると細かいところでlocalAIの中身がわからないのでソースを見ながら調整していました。

おもに.yamlファイルのtemplateを調整していたのですが、結局のところ何も考えなければ、

options:
 - use_jinja: true

と設定すればllama-cppでgguf内の定義体からtokenizer.chat_templateをつかってプロンプトをいい感じに扱うようになりました。

OllamaのRakuten AI 2.0 mini instruct

localAIでいろいろと納得いかず、WindowsにOllamaをインストールして確認してます。

Ollamaのインストーラーもいつの間にか2G近いサイズになっていて驚きました。

インストールしたら、コマンドプロンプトでモデルのインストール。 

> ollama pull hf.co/mmnga/RakutenAI-2.0-mini-instruct-gguf:Q8_0

ほんと、コマンドラインの履歴が残ってて助かりました…w