テクノロジー

【やじうまPC Watch】 今のPCでローカルLLMがどの程度動くのか、ブラウザで自動判定するサイト

1: yamadar 2026/04/16 16:43

普通に便利そう

2: nguyen-oi 2026/04/16 17:32

手元のゴミスペPCで動くか判定して4090買えって言われるだけのサイトか

3: kashil 2026/04/16 18:05

謎のEXEファイルを実行させられるの怖すぎるだろ

4: ardarim 2026/04/16 18:16

「Hugging Faceの膨大なモデルライブラリから最適なモデルを探すのは、まるで海の中で針を探すようなもの」の解決策にはならないのでは?

5: fashi 2026/04/16 18:37

性能スコアに釣られて導入したら異様にthinkingが長くて使い物にならなかったりするので難しい

6: l_etranger 2026/04/16 18:46

実際のところ、動かすに値するモデルは限られているし、動作速度も、DenseかMoEかとモデルサイズで大体察しはつくのでそこまで困らないのだけど、多少の参考にはなる。ただこのサイトの計算式は結構雑。

7: ys0000 2026/04/16 19:43

未だにLM Studioは使った事がなかったが、デファクトってvLLM辺りじゃなかったのか。

8: welchman 2026/04/16 19:47

信頼度はともかく、試してみよう

9: cinq_na 2026/04/16 20:15

IvyのiGPU、RAM16GB、SATAーSSDで何を動かせって?

10: ryudenx 2026/04/16 20:41

なんとなくこの記事炎上しそうだからメモっておこう

11: ejointjp 2026/04/16 21:07

ローカルLLMの必要性が分からないオレに誰か教えてくれ。Claude / Claude Codeじゃダメなんか

12: fjch 2026/04/16 21:44

有用