テクノロジー

「君のPC、どのローカルAIを動かせる?」がわかるWebサイト「CanIRun.ai」が便利。訪問するだけで自動判定(生成AIクローズアップ) | テクノエッジ TechnoEdge

1: Seamless 2026/04/22 09:12

アクセスした瞬間に手元のPCを判定→6段階で各モデルの動作レベルを表示。ブラウザ上で完結。他も調べられるためデバイス購入前にチェック可能

2: nguyen-oi 2026/04/22 10:03

これ便利だな。ローカル環境で何が動くか不安な層には刺さる。とりあえずVRAMが全てって現実は変わらんが

3: Nunocky 2026/04/22 10:11

LMStudioの検索機能で欲しいやつ。数GB落としてくるのを待った後に "model load failed"の一言で終わってしまう悲しみから解放してくれ

4: shaokuz 2026/04/22 10:23

スリザリン

5: kabuquery 2026/04/22 10:30

電気屋のパソコンからアクセスしたい

6: rdlf 2026/04/22 10:46

MacBook Proにメモリをいっぱい積んだのでこの手の心配がなくなったけど、こんどはMacBook ProのGPUがクソなのが気になってくるという…

7: pgary 2026/04/22 11:09

“CanIRun.ai”

8: haru_almond 2026/04/22 11:21

頭いいな

9: naokun776 2026/04/22 11:38

CanItRun.crysisが出たら起こしてくれ

10: Tomosugi 2026/04/22 11:51

へー、これは便利

11: mouki0911 2026/04/22 12:05

すごE

12: sotonohitokun 2026/04/22 12:14

これ多分FP16でやってるけど今は大体量子化しちゃうから参考にならないと思う。全然大きいの走るし、Tokスピードも出るよ

13: strawberryhunter 2026/04/22 12:25

ファイルサイズでだいたいわかる。LM Studioは無理だと警告が表示されてるはず。Kimi Kシリーズはでかすぎて断念した。

14: RXRHsZcJ6xnGXZR8TEZA6hAxzRd3mkD 2026/04/22 12:27

AI周りのニーズは数か月で大変化するからPCメーカーは怖くて追従できない。ローカルAIの需要が数年続いて確実にならないとPCの設計は変わらないだろうなぁ。

15: K-Ono 2026/04/22 12:45

グラボ乗っけてない民ワイも挑戦してみよう

16: hagakuress 2026/04/22 12:56

外付けGPUとGPUドックが欲しくなるなぁ。。

17: natu3kan 2026/04/22 13:01

GPUが古すぎるとグラフィックメモリ不足で必要最低限の動作環境まで行かないんだよな。

18: kkobayashi 2026/04/22 13:06

sandybridgeで動くローカルAIはありますか?

19: l_etranger 2026/04/22 13:14

sotonohitokun ベースラインはFP16ではなくQ4_K_Mになってる。それはそれとしてこのサイトの計算は雑な部分もありあくまで参考程度とみるのがいいと思うけど