でしょうね、という感想。というか、仕組みからしたら結果はほぼわかってるのに、AIを過度に信奉する人の暴走を止めるために実験してるようにしか見えんのだが。
車輪の再発明感はあるけど、まぁ生成AIも万能じゃないという裏付けの研究か
推論させるには、AIに自我的(擬似的でもいい)なものを持たせる必要あると思うが、なぜ、そういう開発の方向にいかない? 実は既にそういう開発されてる?/AIは観測、認識するためのAI自身の地面が無い。
逆にヒトはどうやって推論してるんや?
LLMはその名の通り学習量をめちゃくちゃ増やして”化けた”技術でしたね
聞きかじりの知識だけで描くジョジョのヴァニラアイスとか見ると、人間の推論もメチャクチャだよ?
LLMというのが、前世紀からのAIの難問だった理解や推論を保留して、統計だけで文を作ることに特化したプログラムだからですね。多様な問題を正しく推論すること自体が未解決問題(構造的問題もあるが)
あらゆる文字情報を読み込んで「文書化された部分では人間を超える思考ができるようになった」が、「文書化された思考なんて思考全体では部分集合」という現実に帰ってきた感じね。ブレイクスルーは五感かな?
『本論文の結論は極めて明快で「CoTの推論能力は真の論理的推論のメカニズムではなく、洗練され構造化されたパターンマッチングの一形態であり、根本的に訓練時に見たデータ分布によって制限される」』そりゃそう
外挿はできんー!ー!!!!!!!、
人間と同じだよ、知らない事は考えられない、考え方(各データから共通性を見出す、そこから何かの法則性を発見する、現状の数値変化から未来の予測値を割り出す等々)は誰か先生役が教えてやらないと思いつかない
体感的にもそういう感じがする、OpenAI o4で社外に出していない技術資料を学習させた質問回答システムを検証したけど学習データセットに明記されていないことに関してはズレた回答ばかり出す感じだった
つまりAIイラストは 色々なイラストレーターの絵を丸暗記して真似してる訳やな やはり著作権侵害()
論理的厳密性がないと推論は難しいのではないかと感じる。個人的な所感。
何重にも間違っててあきれる。LLMは言語モデルに過ぎず、推論出来ているように見えるのは、言語に論理が内在しているから。LLMは人間のように抽象化は出来ない。むしろ言語の持つ機能を示したのがLLM
実験デザインの意図はわかったが比較対象となる人間は問題セットを解いてる最中にその問題で学習してしまうから性能が良く見えるってことは考慮に入ってるのだろうか
たくさん学習すると「いい感じになる」としかわかっていない生成AIに対して知ってたというコメントがつくここにはかなりの有識者が群れをなして存在しているようだ。
そして次に人間の推論も実は過去に学習されたものの組み合わせにすぎないことが判明すると
でしょうね
まぁそうだろうなぁと言う感想しか出ない。結局生成AIの正しさは膨大なパラメータによるのだろうとしか思えない。人間も脳内にたくさん専門家がいてその中で推論しているのだろう。
じゃあAIに聞いてもらってるちょっとした悩みは誰かが昔通った道なのか。ありがとう先人
AI「何でもは知らないわよ。知ってることだけ」
言うほど人間の推論もそんな高尚じゃないと思ってる
ハリーポッターを学習していない奴がハリーポッターについて答えられるわけがないんだよな。しかし例えばアメリカ英語とイギリス英語の違いやprivet・dursley等の周辺知識があれば文章から舞台を推測するなどは出来る。
人間はカントの言う「アプリオリな総合判断」が出来る。得意なわけではないが可能。生成AIには全く不可能。この違いは大きい。
将棋や囲碁のように自己学習するようになってからが本番だと思うけど、いつそこまで行けるのかどうかはよくわからない
実感が綿密な計算で実証されな感じ。人間の頭脳の「いい加減さ」は今のAIの直線上では遠そうかなと。身体性もあるしね。究極的に脳が電気信号という話とは別でさ。
「推論する生成AI」は事前学習されていない課題を正しく推論することができない(共変量シフトに弱い) - 渋谷駅前で働くデータサイエンティストのブログ
でしょうね、という感想。というか、仕組みからしたら結果はほぼわかってるのに、AIを過度に信奉する人の暴走を止めるために実験してるようにしか見えんのだが。
車輪の再発明感はあるけど、まぁ生成AIも万能じゃないという裏付けの研究か
推論させるには、AIに自我的(擬似的でもいい)なものを持たせる必要あると思うが、なぜ、そういう開発の方向にいかない? 実は既にそういう開発されてる?/AIは観測、認識するためのAI自身の地面が無い。
逆にヒトはどうやって推論してるんや?
LLMはその名の通り学習量をめちゃくちゃ増やして”化けた”技術でしたね
聞きかじりの知識だけで描くジョジョのヴァニラアイスとか見ると、人間の推論もメチャクチャだよ?
LLMというのが、前世紀からのAIの難問だった理解や推論を保留して、統計だけで文を作ることに特化したプログラムだからですね。多様な問題を正しく推論すること自体が未解決問題(構造的問題もあるが)
あらゆる文字情報を読み込んで「文書化された部分では人間を超える思考ができるようになった」が、「文書化された思考なんて思考全体では部分集合」という現実に帰ってきた感じね。ブレイクスルーは五感かな?
『本論文の結論は極めて明快で「CoTの推論能力は真の論理的推論のメカニズムではなく、洗練され構造化されたパターンマッチングの一形態であり、根本的に訓練時に見たデータ分布によって制限される」』そりゃそう
外挿はできんー!ー!!!!!!!、
人間と同じだよ、知らない事は考えられない、考え方(各データから共通性を見出す、そこから何かの法則性を発見する、現状の数値変化から未来の予測値を割り出す等々)は誰か先生役が教えてやらないと思いつかない
体感的にもそういう感じがする、OpenAI o4で社外に出していない技術資料を学習させた質問回答システムを検証したけど学習データセットに明記されていないことに関してはズレた回答ばかり出す感じだった
つまりAIイラストは 色々なイラストレーターの絵を丸暗記して真似してる訳やな やはり著作権侵害()
論理的厳密性がないと推論は難しいのではないかと感じる。個人的な所感。
何重にも間違っててあきれる。LLMは言語モデルに過ぎず、推論出来ているように見えるのは、言語に論理が内在しているから。LLMは人間のように抽象化は出来ない。むしろ言語の持つ機能を示したのがLLM
実験デザインの意図はわかったが比較対象となる人間は問題セットを解いてる最中にその問題で学習してしまうから性能が良く見えるってことは考慮に入ってるのだろうか
たくさん学習すると「いい感じになる」としかわかっていない生成AIに対して知ってたというコメントがつくここにはかなりの有識者が群れをなして存在しているようだ。
そして次に人間の推論も実は過去に学習されたものの組み合わせにすぎないことが判明すると
でしょうね
まぁそうだろうなぁと言う感想しか出ない。結局生成AIの正しさは膨大なパラメータによるのだろうとしか思えない。人間も脳内にたくさん専門家がいてその中で推論しているのだろう。
じゃあAIに聞いてもらってるちょっとした悩みは誰かが昔通った道なのか。ありがとう先人
AI「何でもは知らないわよ。知ってることだけ」
言うほど人間の推論もそんな高尚じゃないと思ってる
ハリーポッターを学習していない奴がハリーポッターについて答えられるわけがないんだよな。しかし例えばアメリカ英語とイギリス英語の違いやprivet・dursley等の周辺知識があれば文章から舞台を推測するなどは出来る。
人間はカントの言う「アプリオリな総合判断」が出来る。得意なわけではないが可能。生成AIには全く不可能。この違いは大きい。
将棋や囲碁のように自己学習するようになってからが本番だと思うけど、いつそこまで行けるのかどうかはよくわからない
実感が綿密な計算で実証されな感じ。人間の頭脳の「いい加減さ」は今のAIの直線上では遠そうかなと。身体性もあるしね。究極的に脳が電気信号という話とは別でさ。