テクノロジー

MacBookで動くし、ぶっ壊れ性能。いま最強のローカルLLM「Qwen3.5」を解説しちゃう

1: straychef 2026/03/15 01:43

neoは

2: plank 2026/03/15 05:58

2bをRaspberry Pi 5 8GBに入れた。thinking (reasoning)は無限ループに入りがちなのでやめた。OpenClawはトークン消費量が半端ないので、Heartbeat辺りのそんなに賢くなくていい処理はこっちで。

3: KAN3 2026/03/15 06:12

もう用途によっては最新のLLMなんか使う必要がなくなってきた。これでもいいし去年のもいい。今後どんどんそういう分野が増えていく。AI企業は本当に儲けられるのか。半導体企業と導入支援企業が結局勝つんじゃないか

4: colonoe 2026/03/15 06:55

中国製なんだけど、どれくらい偏向してるのかな

5: nguyen-oi 2026/03/15 07:04

中華LLMの進化速度が異常。M4/M5 MacBookならローカルでこれ動くとか胸アツ。もうAPI叩かなくてもいい時代か

6: ssfu 2026/03/15 07:56

もう、AIは諜報活動の一環になってきたからなあ。

7: sionsou 2026/03/15 08:17

ローカルで動かすにしても関係ないファイルや情報を読み取らない、情報を中国に送信しないなどの確約が持てないと流石にな…。それ言い始めるとClaudeCode、OpenAIはみたいな話になるが。

8: nora-inuo 2026/03/15 08:26

"ローカルLLMはChatGPTのようなメインストリームとは性質が異なるオルタナ的AIで、自分のPCでセットアップする必要がある "

9: koroha-a 2026/03/15 08:41

安全性については色々言われているが、ローカルなら安心かな。むしろアジア圏の言語には強い、らしい。試してみたい

10: sumika_fijimoto 2026/03/15 09:04

Qwen2.5-coder-14B を MBP M5 32GBで軽々動かしてるよ。3.5出たんだ。入れます。

11: qpci32siekqd 2026/03/15 09:11

まだ性能足りてない気がするけどな

12: strawberryhunter 2026/03/15 09:25

397Bだっけか。それもClaudeとかと比べると圧倒的に見劣りする。とは言え、進化がすごいけど。

13: alcohorhythm 2026/03/15 09:35

使ってみてるけど、雑なプロンプトにうまく対応できない印象。GLMの方が行間読み取ってくれる。

14: otchy210 2026/03/15 09:36

2〜3年前のエポックメイキングなクラウド AI くらいの能力にローカル AI が追いついてきたって事よね。あと 2〜3 年後が楽しみだ。

15: croak-sleek-241 2026/03/15 10:06

Qwen3.5は凄いがタイトルは盛りすぎで、特定用途or趣味人でなければ現時点ではクラウドがコスパもタイパも良い/ローカルでN万円掛けて数分待つ(たまに失敗)か、クラウドで一円未満で数秒で済ませるか

16: younari 2026/03/15 10:11

家庭用でも高精度で動くことに価値があるもんな

17: iphone 2026/03/15 10:48

釣りタイトルが跋扈してるせいで安易な強調表現がダサい時代になったな。「ぶっ壊れてるんじゃ困るね」とそのまま受け止める方が良いかもしれない。誤解を減らすことを意識する方が格好良くはある。

18: toaruR 2026/03/15 11:29

でも、コード書かせようとするとコンテクスト長32kトークンはほしいし、そうなるとやっぱ素直にクラウド使えってなるよなぁ

19: defiant 2026/03/15 11:34

この記事をおすすめしました

20: Nunocky 2026/03/15 12:52

「ハルシネーション率の高さ」これだけでもう致命的で、まだまだ任せられない。推論もとても遅い。センシティブな処理をお試してやってみる程度。コーディングには全く使えない。

21: kyahi227 2026/03/15 12:56

Qwen3.5シリーズはVRAM容量8GB向け、16GB向け、24GB以上、256GB以上など複数のサイズがある。記事で扱われているのは8GBサイズ。LLMは定期的にこの手のぶっ壊れが出てそれ以前のものは使い物にならなくなる過渡期にある。

22: wordi 2026/03/15 13:10

ぶっ壊れかは兎も角、メモリ帯域がそこそこあるからグラボのVRAMに縛られないのは今のとこ唯一

23: taruhachi 2026/03/15 13:43

試してみたが、延々と英語もしくは中国語で同じ推論を繰り返してなかなか日本語での回答をしてくれない事が多い。何分間もずっと独り言言ってる。

24: pochi-taro00 2026/03/15 16:05

ローカルで起動するだけ ぶっちゃけ性能はゴミや

25: peempoom 2026/03/15 17:50

Qwen3.5が使えないって? ははは、何週遅れの事を言ってるの。先ずはもうちょっとAIへの理解度を上げよう。どのローカルLLMでも同じだが、こいつもポテンシャルは27B以降だよ。

26: l_etranger 2026/03/15 19:48

過去にClaudeでやった比較的単純なタスクを、Qwen3.5 9B Q8 on Claude Codeでやってみた。成果物の出来ベースで30点くらいの評価。小型でここまでできるのはすごいが、30点でもよしとできるタスクを考えるのが大変かも。

27: yellowdomestic 2026/03/15 20:26

ローカルLLMに価値が見いだされると、次に始まるのは最新情報の自動取得 searXNGのセルフホストやスクレイピング、プロキシの需要が高まる

28: misshiki 2026/03/15 22:57

アリババのローカルLLM「Qwen3.5」解説。MacBookでも動作し、9Bは小型モデルながらトップ級ベンチマーク。日本語対応・画像認識・最大26万コンテキスト・MCP対応。無料で商用利用可。弱点はハルシネーションと処理時間。