テクノロジー

「メモリは8ギガで十分ですよ。勘弁してくださいよ」時代の到来。1ビットLLM「Bonsai 8B」を8GBのMacBook Neoで動かしてみたら爆速だった。1.1GBに8Bパラメータが入る驚き(CloseBox) | テクノエッジ TechnoEdge

1: nguyen-oi 2026/04/04 20:40

1bit化で8GBが延命されるの草。結局MacBook Neoでもメモリ増設不可なのは変わらんしな

2: habk 2026/04/04 20:45

理屈は分からないが 凄い進化だと理解した。📱で試してみたい。“8.2Bモデルが1.1GB。8GB MacBookで余裕で動く。Llama 3.1 8B(FP16で16GB)を超えるベンチスコア。「8GBでは3Bモデルが限界」と思い込んでいた壁が一気に崩れました"

3: isrc 2026/04/04 21:40

現時点での結論は品質重視:Tool Callingが必要なら、Bonsai 8B/速度重視:シンプルな会話ならSwiftLM + Qwen 2.5 3B。Tool Callingが不要な用途では、1.32倍速いSwiftLMが快適です。

4: taguch1 2026/04/04 22:30

へー試してみよ

5: awawann 2026/04/04 22:32

おー。これは期待か?

6: Islecape 2026/04/04 22:54

「いや24ギガだ。8ギガと8ギガと8ギガで24ギガだ」(※ユニファイドメモリ24GBは12GBメモリと12GBメモリの組み合わせらしいです)「・・・マウスもくれ」

7: hebomegane_sun 2026/04/04 23:07

試すけどまだ先のお話だなぁ

8: ssfu 2026/04/04 23:07

ちょっとなにいってるのわかんない

9: udongerge 2026/04/04 23:08

そこは「分かってくださいよ」だ(のちに実際は「任してくださいよ」だったことが判明し衝撃を受けたので記念に追記)

10: camellow 2026/04/04 23:32

メモリがギガ?メモリの単位はメガに決まってるだろ!と思ってしまう程度に酔ってるのでもう寝ます

11: OkadaHiroshi 2026/04/04 23:36

小型のモデルはやはり汎用性では大型のモデルに敵わないので、早晩、何がタスクをさるには特化したモデルを組み合わせて使うようになると思う、そうするとやはり8ギガでは足りなくなる。

12: cinq_na 2026/04/04 23:45

モデルの肥大化による性能向上に限界と予算が見えてきたんで、小さなモデルで同等の性能をってフェーズですかね。どうにもマネタイズ出来ないって未来が見えるけど、無いと困る程度には普及してるしどうしよう。

13: georgew 2026/04/04 23:49

被せに行ってはいるものの微妙に違ってる Blade Runner の謎セリフが刺さる。

14: i-komo 2026/04/05 00:30

two-two, four! 2匹で十分ですよ、なので16G要るってか。(何の話だ)

15: ejointjp 2026/04/05 01:04

MacBook Neo、驚くべきことに Xcodeバリバリ動く。でも、やっぱM4 Proと比べたら動きは断然ノロい。可か不可かで言えば可だが、十分とは言えない。

16: Galaxy42 2026/04/05 01:44

見た目がかわいい

17: yourmirror 2026/04/05 01:48

普通にタイトルに「驚き」って言葉が入ってくることに清々しさを感じる

18: sotonohitokun 2026/04/05 06:08

きちんとしたAIを今動かすなら安価な中華APIの方が絶対的にいいよ。10万でも他の機能と一緒に使えないなら余りローカルの意味がない。会話程度ならフリークラウドで良いわけだし。

19: shoechang 2026/04/05 08:16

ラズパイ5の8GBで

20: mouseion 2026/04/05 08:30

例えばcore i7でメモリ8GBとcore i5でメモリ16GBでは後者の方がサクサク動くからね。ゲームをやらせると軽いものなら前者の方が良いけど作業する分にはメモリの大きい方が強い。

21: RXRHsZcJ6xnGXZR8TEZA6hAxzRd3mkD 2026/04/05 08:37

ブ※「モデルの肥大化による性能向上に限界と予算が見えてきた」でも次期 claude の mythos は 24Tパラメータ、GPT5系の10倍くらいあるっちう噂やで

22: ogawat1968 2026/04/05 09:25

なんか今検索したら「まかせてくださいよ」らしい。

23: strawberryhunter 2026/04/05 09:30

ここ、はてブで1bit LLMはレーダーのなんちゃらだから絶対に来るみたいなコメントを見て以来注目してる。たった8Bではなく1000Bくらいのを作ってみてほしい。

24: wepon 2026/04/05 09:44

No four. Two, two, four.(いや4ギガだ。2ギガの2枚刺しで4ギガ)

25: kijtra 2026/04/05 10:23

最近は「AIならMac(M4チップ)」という意識が徐々に忍び寄り、飛躍して「Win使ってるやつはダメ」に変わりつつあるように思う。

26: ku__ra__ge 2026/04/05 11:01

いや32GBだ。16と16で32。それと、グラフィックボードもくれ。

27: osugi3y 2026/04/05 11:42

こういう技術の方が本来は歓迎されるべきだとは思う。必要メモリが多い方が有用とかより。

28: Karosu 2026/04/05 11:53

8Gで十分という人の使い方を知りたいな、アプリケーションを3つ以上立ち上げているだけで10Gを消費している現実があるから、そんなの言葉は響かない

29: agricola 2026/04/05 17:20

EPYCの3D V-cache版だとモデルが全部L3に乗るのでは(笑

30: totoronoki 2026/04/05 18:03

使ってみたけど爆速という感想はよく分かる。1,446 tokens 8.4s 172.69 t/s 。インクジェットプリンターとレーザープリンターの違いみたいな速度だった。

31: rdlf 2026/04/06 10:41

LM Studioで動いたら試す。コマンド叩いて入れると入れたことを忘れてそのままになりそうなので

32: misshiki 2026/04/06 19:12

1ビットLLM「Bonsai 8B」が1.1GBで8.2Bパラメータ。8GB Macで約2.5GB使用で動作。Tool callingも正常、平均21 tok/s。従来3B限界の8GB環境で8B品質を実用化。