2026年4月5日日曜日

Local AI v4.1.1 が リリースされました。

リリース時間が1時間前となっているので結構タイムリーですね。

対応は主にGemma4関連だと思います。

llama-cppがGemma 4で拡張された部分への対応がかなり頻繁に行われているのですが、backend/cpp/llama-cpp/Makefileで定義されているLLAMA_VERSIONの値が変更されているはずです。 

それと、v4.1.0でチャットを行うときにGemma4の思考モード展開が行われるようになったのですが、出力終了時に自動的に隠れてしまうんです…全てがw その対応が行われていると良いのですが。他にもいくつか手が入っているのでv.4.1.1でビルドしなおすのがよさげですね。

 

26/04/05 12:17 追記

特に変わり映えないと思っていたリリースですが、こんなものが追加されていたとは…

実用性はさておき、手軽に量子化できる環境が出てくるとは…まだここまで手が出せてないんだ… 

0 件のコメント:

コメントを投稿