検索力低そう
4oって1年前のやつ?
自社ベンチマークでGPT超えとか言っちゃうあたりが実に楽天らしい。モバイルも頑張れ
"日本固有の文化的知識や歴史、大学院レベルの推論、競技数学、指示遵守能力などに関する複数の日本語ベンチマークでは、いずれもgpt-4oなどに比べて高い性能を発揮"
そう…
よりによってDeepSeekベースで作って日本語特化って言われても・・・
入力データ全部ぶっこ抜いて広告メール打ってきそう
ベースモデルはDeepSeekV3(2024年12月登場の中華LLM)。https://huggingface.co/Rakuten/RakutenAI-3.0 で公開。671B。gpt-4oは2024年5月のモデルなのでほぼほぼ丸2年前のモデル⋯⋯比較対象ぇ
うーむ
ゴミLLMのためにデータセンター使うぐらいならClaudeに使わせてくれ。KimiやQwenがクローズド匂わせてるのに中国様の機嫌次第で崩壊する物を国産モデルと言うのはやめてくれ。国と大手が投資するならMistral目指してくれ
オープンソース系では健闘してて日本語特化部分が活きる画面があるかも。でも結局は、圧倒的高性能な汎用モデルの前に多少のチューニングはベイビーハンズイージーツイスト。がんばえ~。
GPUをそろえられるほどの投資はできていない。訓練・推論用チップの開発もまだ現実的じゃない。当面は蒸留とかファインチューニングで性能のキャッチアップを続けていくしかないから順当。前向きに評価するべき。
下手に連携したらDM大量に送ってきそう
Gemini 3 Flash 思考モードを常用してるので、過去の興味深かった壁打ちを選んでRakuten AIに入れてみた。Geminiはプロンプトの背景まで察するように回答するけど、Rakutenは無理っぽくて質問の分析とアドバイスに留まる感じかな
公用語は英語だから英語で回答しそう
コードゼロイダーに乗る楽天カードマンください
ここで批判してる人は外資や海外勤務・在住のエリート民なんやろなぁ
Apache 2でモデル配布してくれるのやるなって思った。量子化してあってもでけえなモデルサイズ
今さら4oと比較する程度でどこに勝ち目と需要があるのか分からんが…
rakuten開発者はこれしか使えない?
性能はともかくちょっと触ってみるかって規模じゃなかった
“gpt-4o”まだ4oと比較なの?
これでは出遅れてますというリリースでしかない
なんだろう、中華並みに使いたくない。
日本語に強いローカルLLMにはそれなりに需要あるのではないかな
世界線が違いすぎる・・他のLLMも、最近はちゃんと日本語理解してるからなぁ。。
日本語特化とかより数GBくらいの低メモリで同等の性能とかそっちの方が筋がいいよな。
673GBあるので誰か試してレビューどうぞ https://huggingface.co/Rakuten/RakutenAI-3.0/tree/main
日本語特化LLM「Rakuten AI 3.0」提供開始
検索力低そう
4oって1年前のやつ?
自社ベンチマークでGPT超えとか言っちゃうあたりが実に楽天らしい。モバイルも頑張れ
"日本固有の文化的知識や歴史、大学院レベルの推論、競技数学、指示遵守能力などに関する複数の日本語ベンチマークでは、いずれもgpt-4oなどに比べて高い性能を発揮"
そう…
よりによってDeepSeekベースで作って日本語特化って言われても・・・
入力データ全部ぶっこ抜いて広告メール打ってきそう
ベースモデルはDeepSeekV3(2024年12月登場の中華LLM)。https://huggingface.co/Rakuten/RakutenAI-3.0 で公開。671B。gpt-4oは2024年5月のモデルなのでほぼほぼ丸2年前のモデル⋯⋯比較対象ぇ
うーむ
ゴミLLMのためにデータセンター使うぐらいならClaudeに使わせてくれ。KimiやQwenがクローズド匂わせてるのに中国様の機嫌次第で崩壊する物を国産モデルと言うのはやめてくれ。国と大手が投資するならMistral目指してくれ
オープンソース系では健闘してて日本語特化部分が活きる画面があるかも。でも結局は、圧倒的高性能な汎用モデルの前に多少のチューニングはベイビーハンズイージーツイスト。がんばえ~。
GPUをそろえられるほどの投資はできていない。訓練・推論用チップの開発もまだ現実的じゃない。当面は蒸留とかファインチューニングで性能のキャッチアップを続けていくしかないから順当。前向きに評価するべき。
下手に連携したらDM大量に送ってきそう
Gemini 3 Flash 思考モードを常用してるので、過去の興味深かった壁打ちを選んでRakuten AIに入れてみた。Geminiはプロンプトの背景まで察するように回答するけど、Rakutenは無理っぽくて質問の分析とアドバイスに留まる感じかな
公用語は英語だから英語で回答しそう
コードゼロイダーに乗る楽天カードマンください
ここで批判してる人は外資や海外勤務・在住のエリート民なんやろなぁ
Apache 2でモデル配布してくれるのやるなって思った。量子化してあってもでけえなモデルサイズ
今さら4oと比較する程度でどこに勝ち目と需要があるのか分からんが…
rakuten開発者はこれしか使えない?
性能はともかくちょっと触ってみるかって規模じゃなかった
“gpt-4o”まだ4oと比較なの?
これでは出遅れてますというリリースでしかない
なんだろう、中華並みに使いたくない。
日本語に強いローカルLLMにはそれなりに需要あるのではないかな
世界線が違いすぎる・・他のLLMも、最近はちゃんと日本語理解してるからなぁ。。
日本語特化とかより数GBくらいの低メモリで同等の性能とかそっちの方が筋がいいよな。
673GBあるので誰か試してレビューどうぞ https://huggingface.co/Rakuten/RakutenAI-3.0/tree/main