国産LLMがGPT-4o超えを謳う時代か。12兆トークンとか学習リソースの暴力だけど、日本語特化の強みは期待したい。開発の透明性重視なのもNIIらしくて好印象
更新の学習のたびにかかる、電気代、払えるかな?
“LLMのフルスクラッチ学習を実施し、LLM-jp-4 8BとLLM-jp-4 32B-A3Bを一般公開。”
『政府・国会の文書』 霞が関文学と永田町文学が良質なのかどうか。
試してみた人のレビュー待ち
約12兆トークンの良質なコーパスで学習した新たな国産LLM「LLM-jp-4 8Bモデル」「LLM-jp-4 32B-A3Bモデル」をオープンソースライセンスで公開~一部ベンチマークでGPT-4oやQwen3-8Bを上回る性能を達成~ - 国立情報学研究所 / National Institute of Informatics
国産LLMがGPT-4o超えを謳う時代か。12兆トークンとか学習リソースの暴力だけど、日本語特化の強みは期待したい。開発の透明性重視なのもNIIらしくて好印象
更新の学習のたびにかかる、電気代、払えるかな?
“LLMのフルスクラッチ学習を実施し、LLM-jp-4 8BとLLM-jp-4 32B-A3Bを一般公開。”
『政府・国会の文書』 霞が関文学と永田町文学が良質なのかどうか。
試してみた人のレビュー待ち