テクノロジー

AIの世界も「フリーランチは終わった」になってきてるのでは - きしだのHatena

1: netafull 2025/06/28 13:20

“これは、逆にいうと、がんばって作っても高性能モデルで駆逐みたいなのでヤル気をなくしがちだったのが終わって、作りこみ勝負になってきてAIシステムの作り甲斐も出るんじゃないかと。”

2: yarumato 2025/06/28 14:31

“2004年ごろCPUのクロック向上が終わり、CPUを差し替えるだけで性能向上する時代が終わった。マルチコア並列化で性能を出すコードに書き換えが必要に。同様にAIも、モデルを差し替えるだけで性能向上するのは終わり”

3: hinonono 2025/06/28 14:39

ムーアの法則みたく、手を変え品を変えあらゆる手を使うことで性能を右肩上がりに伸ばし続けるよ

4: auto_chan 2025/06/28 15:00

たしかに毎日が"驚き"に満ちていたあの頃にくらべるとちょっと落ち着いてきた感はある。ソフトウェア開発のようにあらゆるツールにエーアイが浸透するフェーズはよこい。取り急ぎキューベースに。

5: pochi-taro00 2025/06/28 15:20

フリーランチってよりAIは儲からないって事実に気づいて来たんだと思う

6: zgmf-x20a 2025/06/28 15:54

ノーフリーランチではなくて、フリーランチは終わったと表現するの?

7: anonie 2025/06/28 16:50

中身については不勉強なのだけれど、こっちが気(プロンプト)を使ってやりとりするよりも、コンテキストによって特化型モデルに切り替わってどんどん質問とか返してくれるオタ気質を発揮してくれたら良いのにと思う

8: bxmcr 2025/06/28 16:59

おお、ずっとスピード上がり続けているのかと思ったら、そうでもない感じ?

9: T-norf 2025/06/28 17:08

プログラミングのRL(ある出力に対して、ユーザが納得した最終形のコードを学習)ってめっちゃ論理やアルゴリズム実用を学習でき、かつ学習データも潤沢で、この分はまだ進化すると思う。と、緩やかなシンギュラリティ

10: stealthinu 2025/06/28 17:24

モデルによる進化がなくても今がもっとも進化速いように思う。学習データこそがニューラルネットの性能の要だと考えてて最近は特にそこで伸びているのでは。ハードの強化でも合わせて伸びてると思う。

11: nemoba 2025/06/28 17:42

むしろClaude 4もGemini 2.5 Proもこれまでのモデルが相手にならないほど一気に賢くなったしまだまだ底は残ってるように見えるよ

12: sororo9797 2025/06/28 18:22

結論づけるの早いのではという印象。

13: fluoride 2025/06/28 18:43

自然言語側もAIに合わせていったり、向いてる言語があったりするんだろうか

14: TakamoriTarou 2025/06/28 19:14

LLMの限界が見えてきてて、後は血の臭いのするレッドオーシャンがあるだけ、と言う表現の方が合ってる気がする。LLMの延長線上にシンギュラリティは来なさそうと言うか

15: diveintounlimit 2025/06/28 19:46

まぁ何でも出現してすぐは改善の余地が大きいよね。それが一周落ち着いたというのは分かる気がする。

16: otologie 2025/06/28 19:47

PrescottのTDPは100Wを越えてたけど65nmプロセスで一気に下がったんだけどな。量子コンピュータはx86からx64のイメージだけど。

17: yamadadadada2 2025/06/28 21:20

フリーウンチは終わる(人生が

18: kotesaki 2025/06/28 21:40

なるほどねー