国産LLMがGPT-4o超えを謳う時代か。12兆トークンとか学習リソースの暴力だけど、日本語特化の強みは期待したい。開発の透明性重視なのもNIIらしくて好印象 でもGemma 4でお腹いっぱい
更新の学習のたびにかかる、電気代、払えるかな?
“LLMのフルスクラッチ学習を実施し、LLM-jp-4 8BとLLM-jp-4 32B-A3Bを一般公開。”
自分が何か貢献してる訳でもないから偉そうな事を言うべきではないだろうが、2026年にllama2ベースって、swallowの周回遅れ感があるけども。ここから巻き返すとかだろうか/どうもファインチューニングじゃなさそう??
中間の17Bくらいのはないのかね。
『政府・国会の文書』 霞が関文学と永田町文学が良質なのかどうか。
試してみた人のレビュー待ち
後で使ってみよう
エロはモザイク、文章は黒塗りになりますってか
gemma4検証で忙しいwただQwen3.5の27Bが取り回しが良すぎる・・
「政府・国会の文書」遺憾の意とかご飯論法言いそう
御託は立派だが中身のない文章生成になりそうだなw
モデルの性能もさることながら、日本語データセットが整うところが大きい気がする。複数言語でのトレーニングが性能を高めることが知られていて、日本語はその点いい位置にいる
LMStudioに流れてきたら使ってみたい
“Qwen3 MoE”か。8Bモデルの出発点が米国製で32Bが中国製なのね。なんか朴訥な性能上げみたいだなぁ。数学サイトで強化学習しましたみたいなコーパス以外の新機軸はないのかな?
8bで軽いのに自然な日本語文出るのは偉いな。やっぱり日本語に最適化すると違うんだろうな。
玉虫色の回答してくるのかな…
がんばれー
国産LLMとか日本語特化とか言ってる時点でズレてると思うんだよな。
モデルそのものよりも"オープンソースAIの定義(OSAID)に配慮し、第三者も入手可能な良質な学習コーパスの収集・選別・構築を行った(略)約6倍の規模となる学習コーパス"が本体っぽい
後で試す。
NIIが国産LLM「LLM-jp-4」公開。8BとMoE型32B-A3B、約12兆トークンで学習。日本語MT-Benchで7.82とGPT-4o(7.29)超え。最大6.5万トークン対応。ABCI 3.0で学習しOSS公開。332B級も2026年度予定。
約12兆トークンの良質なコーパスで学習した新たな国産LLM「LLM-jp-4 8Bモデル」「LLM-jp-4 32B-A3Bモデル」をオープンソースライセンスで公開~一部ベンチマークでGPT-4oやQwen3-8Bを上回る性能を達成~ - 国立情報学研究所 / National Institute of Informatics
国産LLMがGPT-4o超えを謳う時代か。12兆トークンとか学習リソースの暴力だけど、日本語特化の強みは期待したい。開発の透明性重視なのもNIIらしくて好印象 でもGemma 4でお腹いっぱい
更新の学習のたびにかかる、電気代、払えるかな?
“LLMのフルスクラッチ学習を実施し、LLM-jp-4 8BとLLM-jp-4 32B-A3Bを一般公開。”
自分が何か貢献してる訳でもないから偉そうな事を言うべきではないだろうが、2026年にllama2ベースって、swallowの周回遅れ感があるけども。ここから巻き返すとかだろうか/どうもファインチューニングじゃなさそう??
中間の17Bくらいのはないのかね。
『政府・国会の文書』 霞が関文学と永田町文学が良質なのかどうか。
試してみた人のレビュー待ち
後で使ってみよう
エロはモザイク、文章は黒塗りになりますってか
gemma4検証で忙しいwただQwen3.5の27Bが取り回しが良すぎる・・
「政府・国会の文書」遺憾の意とかご飯論法言いそう
御託は立派だが中身のない文章生成になりそうだなw
モデルの性能もさることながら、日本語データセットが整うところが大きい気がする。複数言語でのトレーニングが性能を高めることが知られていて、日本語はその点いい位置にいる
LMStudioに流れてきたら使ってみたい
“Qwen3 MoE”か。8Bモデルの出発点が米国製で32Bが中国製なのね。なんか朴訥な性能上げみたいだなぁ。数学サイトで強化学習しましたみたいなコーパス以外の新機軸はないのかな?
8bで軽いのに自然な日本語文出るのは偉いな。やっぱり日本語に最適化すると違うんだろうな。
玉虫色の回答してくるのかな…
がんばれー
国産LLMとか日本語特化とか言ってる時点でズレてると思うんだよな。
モデルそのものよりも"オープンソースAIの定義(OSAID)に配慮し、第三者も入手可能な良質な学習コーパスの収集・選別・構築を行った(略)約6倍の規模となる学習コーパス"が本体っぽい
後で試す。
NIIが国産LLM「LLM-jp-4」公開。8BとMoE型32B-A3B、約12兆トークンで学習。日本語MT-Benchで7.82とGPT-4o(7.29)超え。最大6.5万トークン対応。ABCI 3.0で学習しOSS公開。332B級も2026年度予定。