テクノロジー

けっこう実用的。「OpenCode」×ローカルLLMで“無料Claude Code”してみた

1: nguyen-oi 2026/05/02 16:09

ローカルLLMでここまで動くのは胸熱。Gemma 4の性能もだけど、OpenCode側の複数ファイル制御が実用的

2: plank 2026/05/02 16:48

Claude CodeでローカルLLMを使うんじゃだめなん?

3: chaoschk 2026/05/02 17:59

試してみたい。必要なハードのスペックが解ってないけど。。

4: yukitan_i 2026/05/02 18:05

CodexでもCopilotでもローカルLLMは動くけど、OpenCodeはモデルの切り替えがほかより楽やね(Claude Codeだけはちょっと挙動が怪しい…)

5: kenzy_n 2026/05/02 19:13

もっとローカルで活用したい

6: enemyoffreedom 2026/05/02 21:04

ここ1年(特にここ半年ほど)のLLMの進化が凄すぎて、メモリやGPUの価格高騰もあり数年は先かなと思っていたローカルLLMの実用化が現実的になってきたなと思う

7: pendamadura 2026/05/02 21:27

aiderの方が良くね

8: toaruR 2026/05/02 21:38

ハードのスペックとコンテクストウィンドウのサイズが知りたい

9: eriotto 2026/05/02 22:08

試して見るとわかるけど、ClaudeCodeのシステムプロンプトのトークンがデカすぎて、24GBのMacに乗るようなローカルLLMでは動かなかった。クラウドの言語モデルはマジでリーズナブル

10: srng 2026/05/02 22:10

Gemma4 26B A4B、VRAM24GB環境は欲しいらしい

11: atsushifx 2026/05/02 23:37

前にコミットメッセージ作成用にタメしたんだけど、ファイルを1つだけコミットさせると、残りの全てがステージングしてしまう上に、元に戻すのが大変だった。

12: exciteB 2026/05/02 23:57

OpenCodeとGoogleの最新ローカルLLM「Gemma 4 26B A4B」/来年くらいだとVRAM12Gで動くローカルLLMがでそう。シンギュラる可能性もあるけど。

13: masayoshinym 2026/05/03 00:32

ハード要件を知りたい。

14: sirius_taka 2026/05/03 01:38

少し前にkubernetesを監視するk9sの劣化版みたいなTUIツールを作らせたらちゃんとできた。RTX2060 (6GB) だからしょぼいLLMしか使えないけど..

15: dbfireball 2026/05/03 02:21

今はまだローカルLLMが快適に動くハードウェア買うよりClaude Code普通に使うほうが安いけど、そのうちコスト的に逆転するとは思う

16: rgfx 2026/05/03 03:14

bigatuna/Qwen3.5-9b-Sushi-Coder-RL-GGUF 辺りだとRTX3060 12GBでも楽に動くけど性能どんなもんかねえ。/ まあOpencode Go(US, EU, SG)に課金するのも良いとは思う https://voluntas.ghost.io/opencode-go/

17: cloverstudioceo 2026/05/03 04:04

ChatGPT 3.5 位の性能だよ。2年前ならすげーけど、Claude Code でopus4.6,4.7とかに慣れちゃうと使い物にならんよね。まぁあと数年後にOpus4.6位の性能になる感じはする

18: rna 2026/05/03 04:41

ただしGPUの価格は考えないものとする。それにいかにもサンプルアプリって感じのアプリを作らせても実力わからんよね…