普通に便利そう
手元のゴミスペPCで動くか判定して4090買えって言われるだけのサイトか
謎のEXEファイルを実行させられるの怖すぎるだろ
「Hugging Faceの膨大なモデルライブラリから最適なモデルを探すのは、まるで海の中で針を探すようなもの」の解決策にはならないのでは?
性能スコアに釣られて導入したら異様にthinkingが長くて使い物にならなかったりするので難しい
実際のところ、動かすに値するモデルは限られているし、動作速度も、DenseかMoEかとモデルサイズで大体察しはつくのでそこまで困らないのだけど、多少の参考にはなる。ただこのサイトの計算式は結構雑。
未だにLM Studioは使った事がなかったが、デファクトってvLLM辺りじゃなかったのか。
信頼度はともかく、試してみよう
IvyのiGPU、RAM16GB、SATAーSSDで何を動かせって?
なんとなくこの記事炎上しそうだからメモっておこう
ローカルLLMの必要性が分からないオレに誰か教えてくれ。Claude / Claude Codeじゃダメなんか
有用
【やじうまPC Watch】 今のPCでローカルLLMがどの程度動くのか、ブラウザで自動判定するサイト
普通に便利そう
手元のゴミスペPCで動くか判定して4090買えって言われるだけのサイトか
謎のEXEファイルを実行させられるの怖すぎるだろ
「Hugging Faceの膨大なモデルライブラリから最適なモデルを探すのは、まるで海の中で針を探すようなもの」の解決策にはならないのでは?
性能スコアに釣られて導入したら異様にthinkingが長くて使い物にならなかったりするので難しい
実際のところ、動かすに値するモデルは限られているし、動作速度も、DenseかMoEかとモデルサイズで大体察しはつくのでそこまで困らないのだけど、多少の参考にはなる。ただこのサイトの計算式は結構雑。
未だにLM Studioは使った事がなかったが、デファクトってvLLM辺りじゃなかったのか。
信頼度はともかく、試してみよう
IvyのiGPU、RAM16GB、SATAーSSDで何を動かせって?
なんとなくこの記事炎上しそうだからメモっておこう
ローカルLLMの必要性が分からないオレに誰か教えてくれ。Claude / Claude Codeじゃダメなんか
有用