2025年10月21日火曜日

gemma3n

localAIで遊び始めて最初はgemma3をメインに遊んでいましたが、少しすると3nなるものがリリースされて、チャット関連は3とそんな違いは無いのかな?と思いあまり気にならなかったのですが、モバイル用にメディア対応が行われているという事で設定してみたところ、日本語に関してかなり精度が上がっていました。

3で曖昧になりがちだった第一人称が認識と表現が区別されるようになったり、細かいところでより会話が自然になっています。

あと、これまで見なかった「警告」という概念が追加されたようで、よくゲームや映像表現である「グロテスクな表現が含まれます。」といった注意書きが突然行われるようになりました。

この文言は3でもあったのかもしれませんが、少なくても3では見たことありませんでした。

会話が分断されるものの、この警告は無視することができますが、突然表示されるのでかなり閉口しますが(笑)

LocalAIの設定周りがおかしいのか、3nが甘いだけなのかわかりませんが、画像も突っ込んでみましたが、今のところまともな回答は得られていない状態。ただLocaAI v3.6.0になってUIから画像の添付が上手く行かなくなっている感じなので、この辺の確認が上手くできていません…。

 

あと気になるのはIBMのLLMも動かしてみましたが、チャットに関してはgemma3nの日本語が一番使えそうな感じ。rakutenのLLMも軽く触れてみましたが、日本語の知識ベースはそれなりで正しい回答が得られましたが、日本語表現はgemma3nよりは劣る感じがします。

 

色々調べているとgemmaは結構特殊な構成になっているらしく、システムパラメータの扱いなどが他の一般的なLLMと違っているようです。

一般的なLLMは会話の開始時点で、使えるシステム部分のプロンプトがgemma3n(3も同様)では解放されていないこと。ただし、指示は行えるようで、ワンクッション挟まれているようです。

利点として、会話の途中でシステムプロンプトが更新されている感じを受けます。

0 件のコメント:

コメントを投稿