テクノロジー

「1.58ビットに進化したから8GBで十分ですよ。任せてくださいよ」とBonsaiが言うのでMacBook Neoに組み込んでその性能差を体感。iPhoneでも楽々動くしで、ローカルAIが超進化中(CloseBox) | テクノエッジ TechnoEdge

1: kenzy_n 2026/04/17 10:06

手元にあるAIの最新の最適解。

2: nguyen-oi 2026/04/17 10:07

1.58ビットとかいう中途半端な数字に草。でも0を追加するだけで賢くなるのは面白いな。8GB制限が産んだ執念の最適化感ある

3: cinefuk 2026/04/17 10:13

「Ternary BonsaiはMLX形式のみ。つまりApple Siliconネイティブです。PrismMLのMLXフォークをソースビルドする必要もなく、pip で入る標準の `mlx-lm` パッケージで動きます。Xcodeも不要」

4: crimson_diamond 2026/04/17 10:33

なぜ人は、サブスクにびた一文払いたくないのに、ローカルで動くものに大枚叩くのか?日割計算すればクラウドで動いてるAIのがコスパいいし、あなたのローカル端末はクラウドよりセキュアなのか?マジで言ってるの?

5: mutsugi 2026/04/17 10:39

デモ使ってみたら相性が悪かったのか初手で幻覚を見始めてしまった……

6: kzmts 2026/04/17 10:44

クラウドに渡せない/センシティブな情報を扱う/収益化の可否/生成したコンテンツの権利(著作権)など、コスパは悪くてもローカルで動かす意味はあると思う。特に松尾さんの場合は。

7: takuver4 2026/04/17 11:10

こんな風にローカルで AI を動かすノウハウを貯めてると、将来に実用に耐えうるローカルAI が出てきたときに上手く扱えるんだろうなあ。

8: ytRino 2026/04/17 11:14

サブスクにびた一文払いたいくないなんて話してるか? ハルシネーション?

9: door-s-dev 2026/04/17 11:27

要はバランス

10: napsucks 2026/04/17 11:48

3値といえばTCAM。TCAM使って演算できないかな

11: l_etranger 2026/04/17 11:54

1.58bitそういうのもあるのか。モデルの実用的な小型化が進むのはありがたい。”やらねばの娘”??イパネマの娘ってこと?

12: nekoline 2026/04/17 12:09

Cyberpunk 2077 で喋る自販機が出てくるけど、もう実現しそう。

13: bventi 2026/04/17 12:23

我が家の最速マシン(iPad M2)で試してみる

14: jun_cham 2026/04/17 12:25

GGUFまだかなー

15: theta 2026/04/17 12:28

Macいいなあ。AI試すならMacがいいらしい

16: restroom 2026/04/17 12:31

3進法か

17: marmarossa 2026/04/17 12:44

18: zgmf-x20a 2026/04/17 13:03

1.58になってたのか…

19: e_denker 2026/04/17 13:10

Ternary BonsaiのネーミングがあまりにもSF小説。

20: fjch 2026/04/17 13:10

2604170823 1ビットBonsaiはウェイトが -1 か +1 の2値、 Ternary(三値)は {-1, 0, +1} の3値 log₂(3) ≈ 1.585 で1ウェイトあたり1.58ビットの情報量。「0(何もしない)」選択肢が加わり表現力向上。

21: miragestlike 2026/04/17 13:33

2つで十分ですよ

22: kotesaki 2026/04/17 13:55

“やらねばの娘” で吹いた(w 例え3値の1.58bitになっても乗算抜きの加算のみで演算解決するからいいよね。今のBonsaiはQwen3がBaseだけどこれがQwen3.5とかBaseになるのが楽しみですね。

23: furuichi 2026/04/17 13:57

オイラーは数学者 ヤクザな数学者

24: pgary 2026/04/17 14:00

“mazzaineoの”

25: chintaro3 2026/04/17 14:09

 「Ternary(三値)Bonsaiでは、{-1, 0, +1} の3値になります。log₂(3) ≈ 1.585 で、つまり1ウェイトあたり1.58ビットの情報量。」

26: raamen07 2026/04/17 14:11

bonsai使ってみたけどまともに会話すらできなかった。聞いてることが違うよ。こういう意味だよとか言っても全然理解しない

27: NEXTAltair 2026/04/17 14:33

AppleはAIブームに乗り遅れたと思ったらローカルでアップルシリコン注目度上げたな

28: solidstatesociety 2026/04/17 15:29

Bonsaiは強いちゃんと育てたい

29: naoya2k 2026/04/17 15:45

MacBook Air M4で試してみたらめちゃくちゃ速くてしかもあまり変なレスポンスでもなかったのでびっくりした。

30: pochi-taro00 2026/04/17 15:50

ゲームもテクスチャ品質落としまくって 解像度下げまくれば起動しますよ みたいなもんか そうじゃないんだよなぁ

31: kahoma621 2026/04/17 16:05

iPhoneアプリで手軽に試してみたけど、2-3回会話するとバグってくる印象で1問1答程度にしか使えないなとは思った。でも1.8GBでこんだけ滑らかに話せるのはすごい。飛行機とかネットが使えないところで暇つぶしできるかも

32: commecco 2026/04/17 16:48

bonsaiから山岡士郎の声が聞こえてきたが気のせいかもしれない

33: ardarim 2026/04/17 16:51

MLX以外のリリースはcoming soonとのこと。早く試してみたい

34: plank 2026/04/17 16:57

Raspberry Piで試したい。

35: raitu 2026/04/17 16:59

“脳のシナプスが「つながっている/つながっていない」だけでなく「つながっているけど使わない」も選べるようになった、みたいな話です。”

36: natu3kan 2026/04/17 17:15

フルスペックのAIと比べたらかなり厳しいよなあ。

37: misshiki 2026/04/17 19:00

PrismMLのTernary Bonsaiを8GB Macで試した記事。1.75GBで動き、ベンチ平均は1-bit Bonsai 8Bの70.5→75.5に向上。日本語応答や複数ステップ推論、Tool Calling時の文脈保持が改善し、ローカルAIの実用性が増したとする。

38: bomem 2026/04/17 19:28

13bで1bitにするのと8bで1.58bitにするのと、どっちがいいんだろうか。容量が同じときに、できるだけ性能がでる組み合わせが知りたい。

39: hirrrose 2026/04/17 20:39

Bonsaiという、LLMについて

40: bird_dip_jp 2026/04/17 21:21

Tri-state とか Open-drain とかのワードが浮かぶハードウェア脳

41: Yaju3D 2026/04/18 00:42

バイナリ乗算がXNORに置き換え可能な理由 https://qiita.com/yaju/items/58f8bb9bef9af99db77e