短い10両編成
入れてみた(スナドラ8G2/12G)、コレローカルでスマホ上ってのが超びっくり、現状音声翻訳はこのやり方では出来ないけど、すぐオフラインのローカルで翻訳が来そうね。
幻魔さん
“わずか” ??
わずか・・・?640KB以上使えたら広大なメモリだろう(時代錯誤)
ollamaのモデルとしても公開されたけど、小さい方でも5.6GBだったので、主記憶2GBで動くとは思えん。
一番大きいのをダウンロードしてみたがロード中にエラーになって使えなかった。→別ので使えた。
あ、まだ正式じゃなかったのか
スマホのAIって勝手に起動されてバッテリー消費されて困る。
小さくなってきましたね。まだまだこの流れは続きそう。
プレビューの時から使ってるけどgguf出たんならPCでも使ってみよう。このサイズでマルチモーダルなのが胸熱。そのうちスマートグラスに組み込んでほしいな。
RTX3060+Ollamaで試したら高速回答。macmini+LM Studio+MLXはメモリー不足で手元では厳しかった(GGUFならいけそう)。
“Gemma 3n E4B”
わずか2GBのメモリ使用量でスマホでの実行もOKな軽量オープンウェイトモデル「Gemma 3n」をGoogleが正式リリース、音声や動画の入力にも対応し日本語ももちろんOK
短い10両編成
入れてみた(スナドラ8G2/12G)、コレローカルでスマホ上ってのが超びっくり、現状音声翻訳はこのやり方では出来ないけど、すぐオフラインのローカルで翻訳が来そうね。
幻魔さん
“わずか” ??
わずか・・・?640KB以上使えたら広大なメモリだろう(時代錯誤)
ollamaのモデルとしても公開されたけど、小さい方でも5.6GBだったので、主記憶2GBで動くとは思えん。
一番大きいのをダウンロードしてみたがロード中にエラーになって使えなかった。→別ので使えた。
あ、まだ正式じゃなかったのか
スマホのAIって勝手に起動されてバッテリー消費されて困る。
小さくなってきましたね。まだまだこの流れは続きそう。
プレビューの時から使ってるけどgguf出たんならPCでも使ってみよう。このサイズでマルチモーダルなのが胸熱。そのうちスマートグラスに組み込んでほしいな。
RTX3060+Ollamaで試したら高速回答。macmini+LM Studio+MLXはメモリー不足で手元では厳しかった(GGUFならいけそう)。
“Gemma 3n E4B”