リリース時間が1時間前となっているので結構タイムリーですね。
対応は主にGemma4関連だと思います。
llama-cppがGemma 4で拡張された部分への対応がかなり頻繁に行われているのですが、backend/cpp/llama-cpp/Makefileで定義されているLLAMA_VERSIONの値が変更されているはずです。
それと、v4.1.0でチャットを行うときにGemma4の思考モード展開が行われるようになったのですが、出力終了時に自動的に隠れてしまうんです…全てがw その対応が行われていると良いのですが。他にもいくつか手が入っているのでv.4.1.1でビルドしなおすのがよさげですね。
26/04/05 12:17 追記
特に変わり映えないと思っていたリリースですが、こんなものが追加されていたとは…
実用性はさておき、手軽に量子化できる環境が出てくるとは…まだここまで手が出せてないんだ…
0 件のコメント:
コメントを投稿