Gemma 4はE2B〜31BまでのGoogle DeepMindモデル群で、マルチモーダル&256Kコンテキスト対応。llama.cppやUnsloth Studioでローカル実行可能。自分も試したけどローカルLLMでもいいと初めて思った。Unsloth Studioの起動面とかは改善期待。
Gemma 4 - ローカル実行方法 | Unsloth Documentation
Gemma 4はE2B〜31BまでのGoogle DeepMindモデル群で、マルチモーダル&256Kコンテキスト対応。llama.cppやUnsloth Studioでローカル実行可能。自分も試したけどローカルLLMでもいいと初めて思った。Unsloth Studioの起動面とかは改善期待。