検索力低そう
4oって1年前のやつ?
自社ベンチマークでGPT超えとか言っちゃうあたりが実に楽天らしい。モバイルも頑張れ
"日本固有の文化的知識や歴史、大学院レベルの推論、競技数学、指示遵守能力などに関する複数の日本語ベンチマークでは、いずれもgpt-4oなどに比べて高い性能を発揮"
そう…
よりによってDeepSeekベースで作って日本語特化って言われても・・・
入力データ全部ぶっこ抜いて広告メール打ってきそう
ベースモデルはDeepSeekV3(2024年12月登場の非reasoning中華LLM)。https://huggingface.co/Rakuten/RakutenAI-3.0 で公開。671B。gpt-4oは2024年5月のモデルなのでほぼほぼ丸2年前のモデル⋯⋯比較対象ぇ
うーむ
ゴミLLMのためにデータセンター使うぐらいならClaudeに使わせてくれ。KimiやQwenがクローズド匂わせてるのに中国様の機嫌次第で崩壊する物を国産モデルと言うのはやめてくれ。国と大手が投資するならMistral目指してくれ
オープンソース系では健闘してて日本語特化部分が活きる画面があるかも。でも結局は、圧倒的高性能な汎用モデルの前に多少のチューニングはベイビーハンズイージーツイスト。がんばえ~。
GPUをそろえられるほどの投資はできていない。訓練・推論用チップの開発もまだ現実的じゃない。当面は蒸留とかファインチューニングで性能のキャッチアップを続けていくしかないから順当。前向きに評価するべき。
下手に連携したらDM大量に送ってきそう
Gemini 3 Flash 思考モードを常用してるので、過去の興味深かった壁打ちを選んでRakuten AIに入れてみた。Geminiはプロンプトの背景まで察するように回答するけど、Rakutenは無理っぽくて質問の分析とアドバイスに留まる感じかな
公用語は英語だから英語で回答しそう
コードゼロイダーに乗る楽天カードマンください
ここで批判してる人は外資や海外勤務・在住のエリート民なんやろなぁ
Apache 2でモデル配布してくれるのやるなって思った。量子化してあってもでけえなモデルサイズ
今さら4oと比較する程度でどこに勝ち目と需要があるのか分からんが…
rakuten開発者はこれしか使えない?
性能はともかくちょっと触ってみるかって規模じゃなかった
“gpt-4o”まだ4oと比較なの?
これでは出遅れてますというリリースでしかない
なんだろう、中華並みに使いたくない。
日本語に強いローカルLLMにはそれなりに需要あるのではないかな
世界線が違いすぎる・・他のLLMも、最近はちゃんと日本語理解してるからなぁ。。
日本語特化とかより数GBくらいの低メモリで同等の性能とかそっちの方が筋がいいよな。
673GBあるので誰か試してレビューどうぞ https://huggingface.co/Rakuten/RakutenAI-3.0/tree/main
質問に対する回答は以下です。その前にcmをお送りしますね。楽天No1獲得!ロールケーキ(画面いっぱいの画像が縦に8つ位)とかなんでしょう?
rakutenってつくだけでちょっと警戒しちゃうのなんでだろう笑
楽天と名前がつくだけで発生するこの忌避感はなんなんだろうね
茶化して申し訳ないが今度は落胆モバイルとか言われなければいいな。
楽天のすることはどうも常に一枚二枚残念な感じが挟まってくるし、大概その悪い予感をしっかり当ててくる。根元のところで何か変なのだろう。
なんで、4oと比べているの?Opus4.6やGPT5.4あたりと比べてどうなのかを知りたい。
日本オリジナルかと思ったらDeepSeekをチューニングしたモデルなの?
楽天が今まで築き上げた実績への正当な評価としてブコメのネガティブな反応があるというだけだろう。
Claude CodeとかDevinを全社導入してAIに全振りとか言ってる会社よりかは全然いいと思うけどね
LLMはもう国レベルの安全保障と直結なので開発投資を続けている会社が国内にあるだけ有難いと思って見ている
遅れてきたルーキー的な?
日本語でQwen3.5-397B-A17Bとベンチマーク比較してほしい
クロードは日本語も完璧よ???
楽天って社内公用語英語なのに日本語に特化したLLMだすのはどうして
4o …。
比較対象をチェリーピックしてない?他の最新の有名どころが見当たらないんだけども
情弱さんのための雰囲気AI
ネットから情報拾ってスプレッドシート作ってくれ、だと全く使えなかった。当たり前だけどGeminiは優秀だった。
ハッシュタグで送料無料とかおしゃれとか人気とか楽天市場検索に特化したテキストが付与されるんですかね?
ギラギラ光った文字と感嘆符だらけの結果を縦長に出してきそう
回答が全部広告みたいなの想像してしまった。楽天モバイルユーザーは広告以外のレスポンスも少し増える
三週遅れでも国産AIを出すことに意義はあると思うよ。もはやAIは社会インフラになりつつあるから、米中が暴走した時でも代替になるものを用意するのは大事。利益にすぐ繋がらないと思うけど、継続して欲しいな
4oと比べられても・・・、せめて5.3あたりと比べてよ
(ベースに使ったかはともかく)アーキテクチャがDeepSeekそのままということは、当初掲げていたFactorization Memoryは上手くいかなかったのでしょうか https://www.nedo.go.jp/content/800028445.pdf#page=23
Mistral使うくらいならNemotronのほうがいいな。
お笑いニッポン
実態はどうあれ、この発表を冷笑するような人にはなりたくないな
日本語に特化してると、コード作成能力が著しく劣ってそうだな。。コード書かせたら、コメントに拝承、とか書いてあったりして。。
日本語能力って、楽天カードマン川柳とかそんなんでしょ?クーッ!
国産LLM作ってるのはここで冷笑してる人らの100倍優秀な人達です
国産でAIがあるのはとてもいいこと、でもやるのが楽天となると話は別。絶対使わない、碌なことにならないという確固たる信頼がある。
softbankは何してるんだろう?
楽天ポイントはたまりますか
もしかして楽天ポイントでトークンが買えたりするやつ?楽天モバイル契約者はトークン消費が半分!とかさ
楽天層には無料でささるのかな?性能次第だと思うけど、楽天市場で使われるのかな?ほとんど使ったこと無いけど楽天市場も。
国産LLMでできることは、1年も経てばローカルLLMでできることと変わらなくなるはずだから、国産LLMはパソコンでできることをわざわざクラウドにするようなもの。残念。
気に入らない意見を「冷笑」扱いして精神的勝利するはてオジ ていうか国産LLMじゃないし Deepseekに追加学習してガワ被せる事業に補助金w 100倍優秀なら自前でモデル作ってくんね? 補助金チューチューするだけ(笑)
「国内最大規模のAIモデル「Rakuten AI 3.0」の提供を開始した」「Rakuten AI 3.0は、日本語に最適化された約7,000億パラメータのMixture of Experts(MoE)アーキテクチャを採用したモデル」
この記事でswallowがGPT-OSS-120Bのモデルを出した事を知ったのでありがたい。本家との違いを別途確認する。
独自にLLM作れるほどのノウハウや資金力があるとは思えないので、蒸溜モデルにローカライズ入れてお茶を濁した感じだろうなと。
ベースモデルから作れ。話はそれからだ
ただのチューニングでも、やらなければ取り残されるわけでやることに意義があるはず。671Bはでかすぎてほぼ使われなそうだけど…あと https://ai.rakuten.co.jp/ で試せるかと思ったがGPT-5.2やo4-miniと思わしきAIしかいなかった…
リリースがユーザじゃなくてスポンサー(国のお偉方)向いてる感。「米中のオープンモデルに対し今ここです」的に正味の評価付けたリリースだったらこんなに馬鹿にされてないと思うよ。
これの開発って税金投入されてるの?自前でやってるならご自由にどうぞだが、税金の使途が海外のGPUクラウド使用料なら無駄遣いでは?(ただ企業としてインフラコストが安い外国クラウドの選択は理解できる)
ベースが古いとどうしても知識カットオフがそこに引っ張られるから残念なのよ。かといって自力で十分な事前学習コーパスをちゃんと集めるのも大変なんだろうけど
ベースモデルと比較してくれないと何とも言えない
サイトを作成させるとながーいページにするAI
エンジニアが前職英語の先生でした、プログラムかけませんってのがゴロゴロいるレベルの会社のAIはただのガワでした
自分は、楽天との関わりを極小化するような生活を心がけているので、出会うことはないだろう。
楽天の名前が入っただけでブコメでは鼻で笑われてる様に同情、などせず自分も苦笑した。
楽天が日本語特化LLM「Rakuten AI 3.0」を公開。GENIACプロジェクトの一環でApache 2.0無償提供。約7,000億パラメータMoE採用、日本語ベンチで高性能。
日本語特化LLM「Rakuten AI 3.0」提供開始
検索力低そう
4oって1年前のやつ?
自社ベンチマークでGPT超えとか言っちゃうあたりが実に楽天らしい。モバイルも頑張れ
"日本固有の文化的知識や歴史、大学院レベルの推論、競技数学、指示遵守能力などに関する複数の日本語ベンチマークでは、いずれもgpt-4oなどに比べて高い性能を発揮"
そう…
よりによってDeepSeekベースで作って日本語特化って言われても・・・
入力データ全部ぶっこ抜いて広告メール打ってきそう
ベースモデルはDeepSeekV3(2024年12月登場の非reasoning中華LLM)。https://huggingface.co/Rakuten/RakutenAI-3.0 で公開。671B。gpt-4oは2024年5月のモデルなのでほぼほぼ丸2年前のモデル⋯⋯比較対象ぇ
うーむ
ゴミLLMのためにデータセンター使うぐらいならClaudeに使わせてくれ。KimiやQwenがクローズド匂わせてるのに中国様の機嫌次第で崩壊する物を国産モデルと言うのはやめてくれ。国と大手が投資するならMistral目指してくれ
オープンソース系では健闘してて日本語特化部分が活きる画面があるかも。でも結局は、圧倒的高性能な汎用モデルの前に多少のチューニングはベイビーハンズイージーツイスト。がんばえ~。
GPUをそろえられるほどの投資はできていない。訓練・推論用チップの開発もまだ現実的じゃない。当面は蒸留とかファインチューニングで性能のキャッチアップを続けていくしかないから順当。前向きに評価するべき。
下手に連携したらDM大量に送ってきそう
Gemini 3 Flash 思考モードを常用してるので、過去の興味深かった壁打ちを選んでRakuten AIに入れてみた。Geminiはプロンプトの背景まで察するように回答するけど、Rakutenは無理っぽくて質問の分析とアドバイスに留まる感じかな
公用語は英語だから英語で回答しそう
コードゼロイダーに乗る楽天カードマンください
ここで批判してる人は外資や海外勤務・在住のエリート民なんやろなぁ
Apache 2でモデル配布してくれるのやるなって思った。量子化してあってもでけえなモデルサイズ
今さら4oと比較する程度でどこに勝ち目と需要があるのか分からんが…
rakuten開発者はこれしか使えない?
性能はともかくちょっと触ってみるかって規模じゃなかった
“gpt-4o”まだ4oと比較なの?
これでは出遅れてますというリリースでしかない
なんだろう、中華並みに使いたくない。
日本語に強いローカルLLMにはそれなりに需要あるのではないかな
世界線が違いすぎる・・他のLLMも、最近はちゃんと日本語理解してるからなぁ。。
日本語特化とかより数GBくらいの低メモリで同等の性能とかそっちの方が筋がいいよな。
673GBあるので誰か試してレビューどうぞ https://huggingface.co/Rakuten/RakutenAI-3.0/tree/main
質問に対する回答は以下です。その前にcmをお送りしますね。楽天No1獲得!ロールケーキ(画面いっぱいの画像が縦に8つ位)とかなんでしょう?
rakutenってつくだけでちょっと警戒しちゃうのなんでだろう笑
楽天と名前がつくだけで発生するこの忌避感はなんなんだろうね
茶化して申し訳ないが今度は落胆モバイルとか言われなければいいな。
楽天のすることはどうも常に一枚二枚残念な感じが挟まってくるし、大概その悪い予感をしっかり当ててくる。根元のところで何か変なのだろう。
なんで、4oと比べているの?Opus4.6やGPT5.4あたりと比べてどうなのかを知りたい。
日本オリジナルかと思ったらDeepSeekをチューニングしたモデルなの?
楽天が今まで築き上げた実績への正当な評価としてブコメのネガティブな反応があるというだけだろう。
Claude CodeとかDevinを全社導入してAIに全振りとか言ってる会社よりかは全然いいと思うけどね
LLMはもう国レベルの安全保障と直結なので開発投資を続けている会社が国内にあるだけ有難いと思って見ている
遅れてきたルーキー的な?
日本語でQwen3.5-397B-A17Bとベンチマーク比較してほしい
クロードは日本語も完璧よ???
楽天って社内公用語英語なのに日本語に特化したLLMだすのはどうして
4o …。
比較対象をチェリーピックしてない?他の最新の有名どころが見当たらないんだけども
情弱さんのための雰囲気AI
ネットから情報拾ってスプレッドシート作ってくれ、だと全く使えなかった。当たり前だけどGeminiは優秀だった。
ハッシュタグで送料無料とかおしゃれとか人気とか楽天市場検索に特化したテキストが付与されるんですかね?
ギラギラ光った文字と感嘆符だらけの結果を縦長に出してきそう
回答が全部広告みたいなの想像してしまった。楽天モバイルユーザーは広告以外のレスポンスも少し増える
三週遅れでも国産AIを出すことに意義はあると思うよ。もはやAIは社会インフラになりつつあるから、米中が暴走した時でも代替になるものを用意するのは大事。利益にすぐ繋がらないと思うけど、継続して欲しいな
4oと比べられても・・・、せめて5.3あたりと比べてよ
(ベースに使ったかはともかく)アーキテクチャがDeepSeekそのままということは、当初掲げていたFactorization Memoryは上手くいかなかったのでしょうか https://www.nedo.go.jp/content/800028445.pdf#page=23
Mistral使うくらいならNemotronのほうがいいな。
お笑いニッポン
実態はどうあれ、この発表を冷笑するような人にはなりたくないな
日本語に特化してると、コード作成能力が著しく劣ってそうだな。。コード書かせたら、コメントに拝承、とか書いてあったりして。。
日本語能力って、楽天カードマン川柳とかそんなんでしょ?クーッ!
国産LLM作ってるのはここで冷笑してる人らの100倍優秀な人達です
国産でAIがあるのはとてもいいこと、でもやるのが楽天となると話は別。絶対使わない、碌なことにならないという確固たる信頼がある。
softbankは何してるんだろう?
楽天ポイントはたまりますか
もしかして楽天ポイントでトークンが買えたりするやつ?楽天モバイル契約者はトークン消費が半分!とかさ
楽天層には無料でささるのかな?性能次第だと思うけど、楽天市場で使われるのかな?ほとんど使ったこと無いけど楽天市場も。
国産LLMでできることは、1年も経てばローカルLLMでできることと変わらなくなるはずだから、国産LLMはパソコンでできることをわざわざクラウドにするようなもの。残念。
気に入らない意見を「冷笑」扱いして精神的勝利するはてオジ ていうか国産LLMじゃないし Deepseekに追加学習してガワ被せる事業に補助金w 100倍優秀なら自前でモデル作ってくんね? 補助金チューチューするだけ(笑)
「国内最大規模のAIモデル「Rakuten AI 3.0」の提供を開始した」「Rakuten AI 3.0は、日本語に最適化された約7,000億パラメータのMixture of Experts(MoE)アーキテクチャを採用したモデル」
この記事でswallowがGPT-OSS-120Bのモデルを出した事を知ったのでありがたい。本家との違いを別途確認する。
独自にLLM作れるほどのノウハウや資金力があるとは思えないので、蒸溜モデルにローカライズ入れてお茶を濁した感じだろうなと。
ベースモデルから作れ。話はそれからだ
ただのチューニングでも、やらなければ取り残されるわけでやることに意義があるはず。671Bはでかすぎてほぼ使われなそうだけど…あと https://ai.rakuten.co.jp/ で試せるかと思ったがGPT-5.2やo4-miniと思わしきAIしかいなかった…
リリースがユーザじゃなくてスポンサー(国のお偉方)向いてる感。「米中のオープンモデルに対し今ここです」的に正味の評価付けたリリースだったらこんなに馬鹿にされてないと思うよ。
これの開発って税金投入されてるの?自前でやってるならご自由にどうぞだが、税金の使途が海外のGPUクラウド使用料なら無駄遣いでは?(ただ企業としてインフラコストが安い外国クラウドの選択は理解できる)
ベースが古いとどうしても知識カットオフがそこに引っ張られるから残念なのよ。かといって自力で十分な事前学習コーパスをちゃんと集めるのも大変なんだろうけど
ベースモデルと比較してくれないと何とも言えない
サイトを作成させるとながーいページにするAI
エンジニアが前職英語の先生でした、プログラムかけませんってのがゴロゴロいるレベルの会社のAIはただのガワでした
自分は、楽天との関わりを極小化するような生活を心がけているので、出会うことはないだろう。
楽天の名前が入っただけでブコメでは鼻で笑われてる様に同情、などせず自分も苦笑した。
楽天が日本語特化LLM「Rakuten AI 3.0」を公開。GENIACプロジェクトの一環でApache 2.0無償提供。約7,000億パラメータMoE採用、日本語ベンチで高性能。