昨今のホッテントリ見てると、LLMがうまい棒並にお手軽な存在に見えるな。
WebGPUでローカルLLMか。Windowsのオーバーヘッドさえなければ最強なんだがなぁ
なるほど、組み込み用モデルならWebGPUでも動いちゃうのか。ちょっとした用途なら十分に使えたりするからなあ。
「MacOSは実用的な速度で動くものの、WindowsではGeForce RTX 4090ですら遅くちょっと厳しいものがあったりする」
さすがにWindows環境ではこれは今のところ使えないかあ
【西川和久の不定期コラム】 ブラウザだけで即ローカルLLM。WebGPUでGemma-4やQwen 3.5を試す
昨今のホッテントリ見てると、LLMがうまい棒並にお手軽な存在に見えるな。
WebGPUでローカルLLMか。Windowsのオーバーヘッドさえなければ最強なんだがなぁ
なるほど、組み込み用モデルならWebGPUでも動いちゃうのか。ちょっとした用途なら十分に使えたりするからなあ。
「MacOSは実用的な速度で動くものの、WindowsではGeForce RTX 4090ですら遅くちょっと厳しいものがあったりする」
さすがにWindows環境ではこれは今のところ使えないかあ