テクノロジー

Claude 4.5 Opus匹敵「Qwen3.6-27B」無償公開、前世代397Bを圧倒

1: favoriteonline 2026/04/23 08:54

Opus4.7がある今4.5と比較されましても・・・

2: sotonohitokun 2026/04/23 09:03

PG未経験者の俺が)SparkでやっとCline利用でトークン軽減が可能な感じ。多少もたつくが十分実用。CodexのProからPlusに落とせる。いや数カ月でこの進化は驚くよ。ちな6bitで2つ同時も載る。4bitなら3つは行けそう。

3: nguyen-oi 2026/04/23 09:07

Qwenの進化速度ヤバすぎ。27BでOpus超えとかローカル勢大勝利だな

4: beeeyond 2026/04/23 09:11

回路NETリストを35B-A3Bにも読ませてみて27Bの方が賢い感じはする。どちらも少し読み間違えるけど。分かってて使うのなら変わるレートリミットや性能低下の影響を受けないってメリットはあるかも。

5: auto_chan 2026/04/23 09:14

4.5 Opusが出た頃は「よんてんご!!すごすぎるっぴ!」とみんな失禁気絶してたんだから、たった半年遅れでローカルで動かせるレベルになるの頭がおかしい。AIのためのゲーミングPCはもう不要と思ってたけど流れ変わっ

6: urtz 2026/04/23 09:35

Mythos手法で更に賢くなる

7: yarumato 2026/04/23 09:57

“Claude 4.5 Opusとのベンチマーク比較では、ターミナル操作を含む長時間コーディングタスクで同等、エージェント総合評価では上回り、視覚言語でも大半の項目でスコアを超えた。”

8: karatte 2026/04/23 10:08

ファーストブクマカが4.7云々言ってるが4.7は正直微妙というか4.5と4.6の早仕舞からしてコストカットモデルだろあれ

9: raitu 2026/04/23 10:25

しばらくはローカルLLMとフィジカルAIが主な進化分野になるのかな

10: fashi 2026/04/23 10:44

「先行リリースされたMoEモデルの「Qwen3.6-35B-A3B」(総パラメータ数350億、アクティブ30億)に対してもSWE-bench Verified(73.4%)やTerminal-Bench 2.0(51.5%)で大きく上回っており」

11: e10kg 2026/04/23 10:47

“Qwen3.6-27B”

12: dbfireball 2026/04/23 11:03

ローカルで動かせるマシンがないとどうにも

13: e4k2EO 2026/04/23 11:09

離職者が出たモデルだっけ

14: wkpn 2026/04/23 11:13

Claude Code Maxプランを契約する意味が少なくなってくるなぁ。

15: haatenax 2026/04/23 11:17

ローカルLLMいつの間にかこのレベルまで来てたのか

16: strawberryhunter 2026/04/23 11:36

今後、Claudeサブスクリプション前提から離れてOpenAI APIで接続するコーディングエージェントを作るのも良いかもしれない。/これを見せるための397Bだった可能性も。オープン路線は今後も続けてほしい。

17: hachibeechan 2026/04/23 11:52

見た感じ普通のmacbook proですら動くレベル?節約のためにhaikuとかsonnet使うくらいならこっちでいいかもなー

18: shinobue679fbea 2026/04/23 12:31

Mac studio512GB、いらなくなる?

19: Futaro99 2026/04/23 12:43

もう(サブスク代とかローカルで動かすマシン代とかの)お金がないと話にならない世界になってきた

20: mayumayu_nimolove 2026/04/23 13:00

4.5かぁ。あともうちょい

21: sumika_fijimoto 2026/04/23 13:04

早速ダウンロードしてみたけど、実行できなかった。。。ChatGPTいわく、Ollamaの既知バグっぽい。ダウングレードするかパッチ待つか。Ollama 0.18系で安定して使えてる人は、しばらくアップデートしない方がよさそう。

22: stealthinu 2026/04/23 13:26

ベンチで匹敵といっても27Bで?とにわかには信じられない… なんにしても入れて試してみるけども/マジですごかった。Opus-4.5はわからんが少なくとも1年前のフロンティアモデル以上であるのは確か。

23: wordi 2026/04/23 13:37

ミドルレンジなRTX 4060Ti(VRAM 16GB)やMac mini(M4 Pro)でQ4モデル動かせるの熱いな

24: hiro99hiro99 2026/04/23 13:45

凄いけど、蒸留だろうし、まだ最新モデルも充分というわけではないからなぁ。

25: w_bonbon 2026/04/23 14:14

よーし。俺も 超ハイスペックなゲーミングPC組んでローカルLLMを意識しつつバニーガーデンやるぞ

26: otihateten3510 2026/04/23 14:15

必要なマシンスペックを試算してもらったけど、winで30万円くらいなので思ったより安い。Macなら80万くらい。

27: sucelie 2026/04/23 14:17

VRAM8GBで動くようになってくれぇ

28: wazpk6no 2026/04/23 15:03

ただし、データを抜かれるってなりそうで怖いっピ

29: ardarim 2026/04/23 15:22

opus4.5から半年経ってないのに。オープンモデルがクローズドに追いつく速度が速くなってる。 / でも動かせるマシンがないのよねえ…

30: medihen 2026/04/23 15:32

これの脅威って、このまま行けばスタンドアロンのロボットが十分な知能を獲得するってことだよな

31: shag 2026/04/23 15:35

すげーんだけど、16GB GPU だとそこまで快適じゃなくて Qwen-3.5 9B から移行できない。グラボ安くならんかな。。

32: tanatana456 2026/04/23 16:03

このままopus4.6レベルまで到達すると、もうローカルで良いじゃんとなるぞ。AIのトップ企業は大丈夫なのだろうか。巨額投資はどうなってしまうのだろうか

33: tnvusjgoohdbzj 2026/04/23 16:09

大体、オープンモデルは半年で現行プロプライエタリSOTAモデルに追いついてます

34: otchy210 2026/04/23 16:13

32GB メモリの M5 Mac を最近入手したので、もうワクワクですよ。早速試す。

35: quick_past 2026/04/23 17:56

とはいえこれを快適に使おうと思ったら、GPUに相当お金をかけなければいけないのでは

36: tzt 2026/04/23 18:22

ベンチはいいが実運用時の性能はいま一歩というのがこの手のモデルのお約束。

37: Akech_ergo 2026/04/23 18:50

ローカルLLMにはちょっと憧れるところもあるが、必要スペックが相当高いので、コスパ的にはClaudeに月額料金払ったほうがよいのだよなぁ。GPUやメモリの値段も当分下がらなさそうだし。

38: RXRHsZcJ6xnGXZR8TEZA6hAxzRd3mkD 2026/04/23 19:11

実際に使うと毎度話にならない出力なんだけど今回はどうよ

39: yaruo5222 2026/04/23 19:15

でもこれをclaude codeやcodexのようなLLMハーネスを伴った形で出来ないんでしょうかね。claude codeでローカルLLMを動かせるようになったって記事を見たけども、少なくともその頃はまともには動かないってのみたけども。

40: kei_1010 2026/04/23 19:38

ほんまかいな

41: misshiki 2026/04/23 19:45

AlibabaがQwen3.6-27Bを無償公開。Claw-Eval Pass^3は60.6%でClaude 4.5 Opusを上回り、Terminal-Bench 2.0は59.3%で同等。画像・動画対応の27B denseモデルでOpenClaw連携にも対応。

42: taruhachi 2026/04/23 19:53

9Bか4Bあたりがこの能力を獲得したら起こして。(Mac16GB民)

43: harumomo2006 2026/04/23 20:13

クエン酸すごいっピ!/この名前もそろそろ終わりかな

44: ntstn 2026/04/23 20:29

ローカルに超知能の時代も近いのか?

45: mr_mayama 2026/04/23 21:00

Claudeしょっちゅう落ちるし地政学リスクあるしローカルを持つのは基本だよね

46: masasia0807 2026/04/23 21:35

ローカルLLMはどれだけ進化しようと、大手クラウドAIと契約したほうが圧倒的に安上がりだから、完全に趣味と研究の世界。だが、それが良い。

47: isayo 2026/04/24 03:01

実用レベルになってきたと言っていい。「セキュリティの問題でエージェントAI使えない」とか思考停止してる場合ではなく、各社はとりあえずGPU確保に動き更に進化するであろうローカルLLMへの即応体制を構築するべき