テクノロジー

ローカルLLMのPoCに300万円使う前に読んでほしい話|dx_note

1: masatomo-m 2025/11/16 16:14

AI生成っぽい流れ

2: bohemian916 2025/11/16 16:25

ISMAPに登録されているAzure等を使えばローカルLLMを使う必要はありませんね。ローカルLLM触れば分かるけど、性能的に全然使えない

3: oosin 2025/11/16 16:50

多くのJTCは担当者の決裁権が小さすぎて細かくPoCを繰り返すには説明する手間と時間がかかりすぎるのが問題。結果大きく予算とってできる限りの範囲をベンダーに任せるのが最適解になってしまう。

4: hatebu_admin 2025/11/16 16:51

最初からそんな知恵があるなら300万使うことはないので設定がおかしい

5: hamati666 2025/11/16 17:55

自社Azureテナントで外部ベンダーに構築してもらうケースとして置き換えて読んだら費用感も引っかかりポイントも大体こんな感じだった。

6: pixmap 2025/11/16 18:10

300万かけて実機導入する前に、まずクラウド環境にローカルLMM立ててベンチマークするよね。

7: moke222 2025/11/16 18:15

普通の新規開発も同じ

8: exciteB 2025/11/16 18:18

EVO-X2。こういうPCあるんだね。128GBの統合メモリ。ローカルLLMに最適で32万円

9: Eiichiro 2025/11/16 18:21

この環境を構築できる人にお金払ってるようなものなので、300万は妥当な気もする。AI案件を組める優秀なエンジニアなら人月200万でも安いだろうし。内製エンジニア育てるにも準備がないなら、もっと時間かかるし。

10: IGA-OS 2025/11/16 18:27

こういうのを試せる予算くらいはサクッと出してもらえると良いのだけどね

11: take_matsu 2025/11/16 18:30

事前にデモ見せて、アジャイル開発でやるつってんのに費用が問題で別ベンダに決めたりするJTCさんサイドにも問題があるだろ

12: bayaread 2025/11/16 18:43

というか AWS でも Azure 経由でも、最先端のモデル使えば安くて精度も出るぞ。学習されない、保存されないのは保証されてるし、金融とか医療分野でも事例あるし。わざわざ GPU まわして精度低いモデルを使うことないでし

13: rei55 2025/11/16 19:39

いつか試すかもしれないからメモ

14: tatuyan 2025/11/16 20:01

外注だと原価30万のハードと+ソフトで300万円くらいするだろうし,そこまで自力検証出来るならそもそも外注せんやろ

15: mk_55 2025/11/16 20:07

既に書かれてるけど、決裁取るのがだるすぎて、どかっど外に出してしまえ、みたいなことになりがち

16: nakag0711 2025/11/16 20:09

職場に福利厚生用マシンが増えるで!

17: myr 2025/11/16 20:13

せめて150万のmac studioではだめなん? 何やりたいのかわからないけどhttps://pc.watch.impress.co.jp/docs/column/hothot/2002592.html

18: toaruR 2025/11/16 20:19

UIっつかモデルの評価はクラウドでできる様な(ノ∀`)

19: aalpaca375 2025/11/16 20:28

少なくとも、このPoC自体は無駄ではないと思う。人件費や物理面含めた運用ノウハウ獲得まで考慮すると、外注は異様に高くつくよ。

20: doituwn 2025/11/16 20:29

きっと300万円が3万円ぐらいの規模の会社だから使っていいんじゃない。日本の現場ってそんな程度が低いの?そしてそれを良しとしてる人達も多いって事?

21: laislanopira 2025/11/16 20:38

日本語文の区切りにコロンを使うやつは誤訳を疑う

22: isrc 2025/11/16 20:43

まず触る。触ってみて初めてわかること:このUIは現場の人が使いこなせるか/実際のデータでどのくらいの精度が出るか/どのくらい手直しが必要か/業務フローのどこで詰まるか/現場の人は本当に使ってくれるか

23: Rambutan 2025/11/16 21:03

ことハードウェアについては某社がDGXを特価でばら撒いているのでここに書いてあるものを買う必要はない

24: daishi_n 2025/11/16 21:21

ハードウェアだけなら「こんなもの」なので内製前提なら、という感じ。とはいえ、外部業者に委託しても工数だけでバカにならんしなぁ。300万ならどんなに大きくても2人月程度でしょ。

25: hanagesan 2025/11/16 21:27

こんな面倒くさいところだけ抜き出した単発案件をたった100万円の予算で受けるところなんてあるんだろうか

26: natu3kan 2025/11/16 21:29

確かに管理職とか担当者の決裁権が小さすぎるから、上からガッツリ予算を持ってきて貰えないと小さく試すことすらできないってのはあるあるだよな。管理職が楽しくない理由の一つでもある。

27: nida3001 2025/11/16 21:39

メールやビデオ会議をクラウドサービスに頼っちゃうような普通の企業の機密レベルだとせいぜい規約で学習しないことを謳ってるLLMで十分では。

28: quality1 2025/11/16 22:12

ローカルLLMやる前にテストデータでクラウドのLLMでやってうまくいくのかの確認は最低限必要だよね

29: kastro-iyan 2025/11/16 22:17

STEP0:本当にローカルLLMが必要なのか社内で相談する

30: takaruka 2025/11/16 22:18

会社規模によるけど300万円ってそんなに大した額じゃないでしょ

31: ebibibi 2025/11/16 22:41

ハードの値段は仕方ないとしても、ローカルLLMを使う環境なんて決め打ちで用意できるんだから環境構築は1日もあればできると思うんだけどな。

32: magi00 2025/11/16 22:53

社内にこれをこなせるだけの人材がその手間をかけれるだけの余裕をもって在籍しているなら、たぶん読む必要がないな

33: cinq_na 2025/11/16 23:00

昔から言われてることの焼き直し。SIerに丸投げしたら絶対に失敗する。基本設計位までは自前で出来ないとダメ。システムで効率化ってコトは首切るのと同義なんで、システム部と現場が対立するのは役員が対応しないと

34: FreeCatWork 2025/11/16 23:15

LLM導入、お金かける前にまずお試しなんだね!ボクも新しいおもちゃはすぐには買ってもらえないにゃ〜。

35: bluescreen 2025/11/16 23:21

ローカルLLMは趣味として楽しむのがよい。

36: queeuq 2025/11/16 23:37

まぁ外部に依頼して構築するのは時間の無駄なのは確か。移り変わりが早すぎるから自前で持つのはかなりのエンジニアを大量に抱えてない限りあり得ない

37: tech_no_ta 2025/11/16 23:37

すごく参考になる。自分でやってる記事を追う→未来予測精度50%+αを自動化を目指して、仕事では基本使わないのにLLMの勉強してて、どのレベルから投資するかって検討してたので。

38: Adeptus 2025/11/17 00:45

LLMは進歩が早すぎて、ローカルなんてあっという間に陳腐化するからやめた方がいい

39: kyukyunyorituryo 2025/11/17 01:09
40: hate1229 2025/11/17 01:27

会社規模でみると300万程度だけどな。年収300万の人入れてなんとかなると思う?ならんだろ。

41: lifefucker 2025/11/17 02:06

年収いくらもらってる奴が300万円をケチってんだよ

42: hiroyuki1983 2025/11/17 02:41

300万安すぎじゃない? 2~3000万はかかるイメージ

43: KoshianX 2025/11/17 02:48

というか相談を受けたらこういう回答をしていくのがいいよねって感じでもあるな

44: prograti 2025/11/17 06:32

ローカルLLMのPoCの現場に関わったことないから分からないけど、挙げられているケースならインプットと期待するアウトプットを業者に渡して検証してもらうだけで済んじゃう気も

45: yarumato 2025/11/17 06:51

“まず触る。小さく始める。 数百円で1週間試す。30万円で2週間、実環境で検証する。課題も効果も明確になった時点で判断する。”

46: tpircs 2025/11/17 07:26

ITベンダに発注する人にITベンダと同等の能力を求めてる感ある。これができるならそもそも発注しなそう。

47: minoton 2025/11/17 07:27

別方向からの記事「 AI目当てでMacやRyzenAIMax+395を買うな」 https://soysoftware.sakura.ne.jp/archives/4060 / “EVO-X2(プロセッサ: Ryzen AI Max+ 395、メモリ: 128GB統合メモリ)” もう30万円で買えなくない?

48: sisicom 2025/11/17 07:28

“ローカルLLMは何回もPOCやったけどどれも無理。同じLLMモデルでも、やっぱり商用サービスのように洗練された答えは返ってこない” 機密性の高い情報をAI対応する時の費用感。よっぽどnotebook lmの方がいい気がする

49: sh-taka 2025/11/17 08:36

自力でたどり着けるっている好例っていうか。コンサルやベンダーに頼らなくても自力でローカルLLMが革新的に変わっても対応できるだろうなと思う。この内容を理解し実践できる人が多数になればいいのに

50: kootaro 2025/11/17 09:36

AI環境構築、PoC進めれる人材を1ヶ月呼んだら150-200はかかるんじゃない?必要経費というか先行投資でしょ。

51: napsucks 2025/11/17 09:38

ローカルLLMは速度さえ気にしなければDRAMたくさん積んだ手元のPCでも動きますよ。PoCするならそれでやってみては?たとえ高速になってもまだ能力的に使い物にならないと思いますけどね。

52: circled 2025/11/17 10:37

もしかするとMicrosoft 365のサブスクに付いてるCopilot(法人テナントはデータ漏洩防止付き)で十分という会社も多いと思う昨今

53: sigeharucom 2025/11/17 11:11

そもそもインターネットに繋がってないLAN内でしか作業出来なかったりするから、その選択肢は最初から存在しない→『ISMAPに登録されているAzure等を使えばローカルLLMを使う必要はありませんね』

54: reihighjcj6a 2025/11/17 11:50

runpodとかvast.aiでいいのでは・・・

55: kojikoji75 2025/11/17 12:40

“選択肢C: やらない もし効果が見込めないと分かったら、ここでストップします。損失は30万円。300万円のPoCをやってから気づくより、圧倒的に安く済みます”

56: duckt 2025/11/17 14:45

弊社もそう。どこのベンダーさんにお願いしたのか知らないけど、セキュリティがガチガチ過ぎてミリつか。Teamsでもおんなじことやらかしたのに全然教訓が生きてない。「角を矯めて牛を殺す」の好(悪)事例。

57: kyahi227 2025/11/17 15:42

グラボが1枚しか積めないマシンを挙げてくる時点でも終わってる。AIはグラボ「しか」使えないから、ちゃんと組んだ「AI専用機」は仮想通貨マイニングリグに近い形になる。

58: Kazumi007 2025/11/17 16:55

POCこそアジャイルな方法で撤退も含めて検討してほしいね

59: ys0000 2025/11/17 21:09

初手はマシンじゃなくてクラウドなのは普通として、メガクラウドじゃないと許可が下りないよね、JTCでは。

60: misshiki 2025/11/18 00:11

“触らないとわからない課題があります。レポートには書かれない問題があります。段階的に進めることで、それらを早期に発見し、解決できます。 結果的に、無駄のない投資ができます。時間もお金も節約できます。”