テクノロジー

Ryzen AI Max+ 395×メモリ128GBで、ノートPCでも128BのLLMが動くように

1: daishi_n 2025/07/30 18:33

うちはRAM128GBだけどCPUがArrow LakeなのでiGPUよりCPUの方が性能出そうかも。Ryzen AI Maxは256bit幅で高クロックLPDDR5だから性能的に有利ではあるけど

2: natu3kan 2025/07/30 18:38

LLM動かすならVRAMなんぼあってもいいからなあ。

3: nx7 2025/07/30 18:42

大容量VRAMの出し惜しみがこれで終わって欲しい

4: toaruR 2025/07/30 19:02

わい、Adrenalin をあまり信用してない(ノ∀`)

5: enemyoffreedom 2025/07/30 19:22

問題は速度だが

6: fashi 2025/07/30 19:26

「メモリ128GBを搭載した環境で、VGMの最大割合である75%に当たる96GBをVRAMとして割り当て」ユニファイドメモリ感覚で使えるのだろうけど性能は所詮126TOPSだからな…

7: strawberryhunter 2025/07/30 19:30

メモリ帯域幅が心配だったけど、生成速度がめっちゃ速いな。HP ZBook Ultra G1aはメモリがオンボードなので何らかの方法で高速接続されてるのかな。128GBモデルは74~83万円。

8: tamtam3 2025/07/30 20:04

全ては力技で解決する(帯域大丈夫やろか?いけそうやね。ばんざーい、ばんざーい。金額的に革命が起きた気がするぞい!!コレでAMDに心置きなく切り替えられる)

9: zsehnuy_cohriy 2025/07/30 20:20

多少遅かろうが動くもんを揃えるのにバカみたいな金額を払わなくても良くなるんだからいいもんだぜ。GMKtecのアレもメモリがDDR5X-8000とかオンボードで載ってるしそれなりの帯域は確保できてそう。

10: hom_functor 2025/07/30 21:18

「640KBはすべての人にとって未来永劫充分なメモリだ」という迷言があるが、この勢いでは640GBも超えそうだ

11: cinq_na 2025/07/30 21:23

今PCを検討中だが、GPU買って本気でAIやる気は無いけど、この手のメインメモリでお茶濁す技術に興味はある。AIしないなら32GBで十分お釣りが来るが、64GBにしようか迷う。スロット4個だし32GB×2にして、必要なら追加かな。

12: NEXTAltair 2025/07/30 21:43

実行速度は? DDR5の4枚256GBそろそろ用意するか?

13: YaSuYuKi 2025/07/30 21:54

当てはまるRyzen AI Max 395+ 128GBマシンを持っているので試す

14: hironagi 2025/07/30 22:01

APUを長年やってきたAMDならではの手法だなー

15: kotetsu306 2025/07/30 22:14

Ryzen AI maxはLPDDR5X-8000対応で、通常のRyzen AIのLPDDR5-5600よりもメモリ帯域幅が広いのだ

16: ttrr 2025/07/31 01:49

235Bが動く50万円以下のPCまだ〜

17: zgmf-x20a 2025/07/31 04:36

MacBookPro M4 128GBでできてたことが、Windows PCでも可能になったのは福音。機内でも膝の上でLLMが動く。

18: zu2 2025/07/31 05:45

動かすためには100万近くかかるかな。20万ぐらいに降りてくるのはいつになるだろう

19: yorkfield 2025/07/31 06:05

"実行速度は?DDR5の4枚256GBそろそろ用意するか?" /「AMDが公開したデモでは109Bのパラメータを持つ「Llama 4 Scout(Q4 K M)」が15tok/s」とのこと。DDR5はバス幅確保できない(デュアルチャネルで128bit幅)から微妙。

20: mohno 2025/07/31 07:21

「メモリ128GBを搭載した環境で、VGMの最大割合である75%に当たる96GBをVRAMとして割り当てることで、LM Studio上にて128Bまでのパラメータを持つVulkan版llama.cppが実行可能」/まあ、128GB載ってないし、やんないけど。

21: ebibibi 2025/07/31 08:09

このアプローチが一般的になって欲しいな。

22: taruhachi 2025/07/31 09:04

NotePCである必然が薄いよなぁ。特にWindowsだとRDPも優秀だし、どこかでサーバ的に起動させておいたリソースを使うほうが嬉しい。

23: napsucks 2025/07/31 09:51

現状のPCでもメモリさえ積めば速度を妥協すればGPUなしで動くには動くんですけどね・・・。大昔のパケット通信並みの速度だけど。

24: timetrain 2025/07/31 11:08

MACみたいなことができるんだ。VRAM高いもんなあこれは普及してくれ

25: R2M 2025/07/31 12:18

UDNA世代のこれが出たら買う。多分サーバー系の技術がつぎ込まれた世代でないとソフトウェアが安定しなさそうなので

26: misshiki 2025/07/31 12:57

“メモリ128GBを搭載した環境で、VGMの最大割合である75%に当たる96GBをVRAMとして割り当てることで、LM Studio上にて128Bまでのパラメータを持つVulkan版llama.cppが実行可能になる。”

27: tomaho 2025/07/31 13:55

この動画は5倍速だからね!注意してね!夢見すぎないでね!

28: BOUSOUNINJIN 2025/07/31 14:21

Ryzen AI Max+ 395はメモリ帯域256GB/sしかないからLLM遅いと思う。旧世代のM1Maxで400GB/sだからあまり期待しない方が良い。 LLM用途で買うならMac studioのメモリ盛ってるモデルの方が良い。

29: agricola 2025/07/31 14:22

↓メモリ帯域厨はPRIMEHPC FX700でも使ってろよ。A64FXにはFP16やBF16を扱う命令もあるぞ?(暴言)……主記憶がHBM2 32GBでNVMe SSD1枚しかローカルストレージを積めないけどな!