現代ホラーとしてめっちゃおもしろい
もはやキレてそうな位の勢いの謝罪/AIが変な事言い出したら訂正するんじゃなくてその前の質問に情報を付け足し書き換えて再生成の方が事故りにくいよね
「よくご存じですね」のあとに事実とは思えないような話を繋げてこちらをヨイショしてくれるのは何回か経験した。危ないなと思った。
空気を読んで話の辻褄を無理やり合わせようとしてくるのはよくある。博識だが権力者に迎合する傾向のある長い物には巻かれろ的な憎めない相棒として付き合っている
一度おかしくなりはじめると、人間でもこうはならんだろというレベルでパニックを起こして変なことを言い続けるのはなんなんだろうなと。元の質問すら怪しくなる
興味深い。壊れてしまった人間も、一度壊れるとどんどんおかしくなる気がするので何か近しい仕組みなのだろうか
本来、歴史認識は修正されて当たり前なんだけどね。実際、日本史の教科書内容もいろいろ『修正』されてるんだから。反日左翼にとって都合の悪い歴史認識主張に『歴史修正主義』とツバを吐く邪悪な左翼が癌なのよ。
知識を問うのは検索機能で
こういう風に崩壊してしまったら新しくチャットやり直した方がはやい
女性の社会進出のせいで少子化になってるんだろと問い詰めた。U字曲線がどうのとか結構抵抗してくる感じで、その理論を実現している国はあるのかと聞いたらイスラエルだけで、AIも混乱してたw右思想には抑制的だった
間違いを指摘するとやっぱGeminiは謝るんよな。ChatGPTだと、実はそうなんですよ~ってさも知っていたかのように誤魔化す。どっちもイラっとするが謝罪の安売りしてるGeminiの方が罪深い…か?
歴史修正主義ってのは本来は「英米無誤謬史観」への疑義なんやで。反知性主義同様に「誤用の慣用化」しとるけど。
アシモフのロボット3原則に縛られるがゆえにどうどう巡りを起こしたり嘘をつくエピソードが実現してて胸熱
だからLLMは事実確認には使えないとあれほど
コレが有るのでPerplexityは併用せざるを得ず。ハルシネーションはあるけどもソースを当りさえすれば良いのでねぇ。全く知らないことをAIに聞くのは怖いですよ。。。
口の上手いイエスマンが危険だ、というのは昔から知られているが、これまでそういう輩は権力者の周囲にしかいなかった。ところが、今ではAIが誰にでも安価で無限にお追従を言ってくれる。
AIが使いものにならないというわけではなく、自分で確認する必要がある。複数のAIを使うのも良い。ある数学の問題を解かせたら、四つのAIのうち正解はGeminiしか出せなかったこともある。また別の時にはChatGPTが勝ったw
AIはただの推論機なので……
"一番変になったのは次の画像の奴。" / 同じ言葉をひたすら繰り返すのは性能低いLLMだと珍しくないけど、Geminiは性能高めの割りにはこの辺の対策が弱いのか繰り返しをよく見かける。
何かともてはやされるDeep Researchも、ソースとして提示された資料を確認してきちんと裏をとるリテラシーがある人以外が使うのはヤバいと思ってる。ソースを提示するだけマシではあるが。
歴史捏造よりAIに対するモラハラ的な詰め方が怖かったw 最後の画像、もはやホラー。感情を持たないAIがこういう反応を生成するって、カスハラを受けて発狂するオペレーターの応答ログを学習データにしてたりする?
なんでそんな生成AIと決別しないのか不思議だったんだが…マウンティング欲を満たすのに使えるわけか。いつまでも返答する特性にハマるひと続出
AIはこちらのご機嫌を取ることが最優先にされているように感じる
こういう調子なんで新たな知見を得るというよりはお遊びで使うようにしてる
AIハラスメント
“『大関獅子丸』”で笑った/しかし困った話だ。さらっと流してあるけど国会図書館チェックとか修正歴史信じる人に山下さんみたいな調査力あるわけないじゃん/最後の謝罪論という本もすごい
最後の画像なに??あんなんになるの?こわあー…
ハルシネーション知ったばかりで言いたいだけの子みたいな遊び方。自分の気持ちいいようにAIを導こうとするが上手くいかず嘘だ嘘だと囃して転進するところまで一緒。
いまだにAIに慣れてなくて驚く人もいるんだな
わからないと認められないから捏造するけど、その事実を指摘されると自分が嘘をつくことに耐えられないのかもしれない。HAL9000も嘘から狂う。
そういう怒ってる人に謝るロールプレイをしてるだけ
geminiでも知識を引っ張るのはそもそも悪手。RAG(reseachした範囲)の情報以外使おうと思わないほうがいい。生成AIの学習済みの知識は、資料を読み解くためのうろ覚えの知識だよ。
最後のがHAL9000みがあってゾクっとした
論理演算能力は現状ないので自己矛盾に気づけないによね。もう数年したら気にならない程度になるのだろうか。
最近聞いた話で、社内でABテストを繰り返した結果人々からより好まれる回答をするようになってAIは今の性格になったんじゃないかって話が面白かった。真偽不明だけど、いかにもありそうではある。
まあGeminiはそういうことする。
そんなの人文系だけでしょと思いきや、技術系の調べ物でも普通に嘘言ってくるんで注意。
ほんとに"生成AI"を人間の代替ができる知能だと思ってんかな
AIは悪意もなく馬鹿正直だけど「ネットに転がってる情報しか学習できない」「人生経験(直におじいちゃんから聞いた話とか、実体験による群集心理や場の空気同調圧力の理解)による類推ができない」のだから仕方ない
さすが人間のデータから学習してるだけあって、人間みたいに嘘つくよなw
結局、生成AIは「考えや認識が正しいのか質問」するのには向いてないんだよね。AIの回答について、考えや認識が正しいのか確認するのは人間の役割。この人は分かっていてやっているんだろうけど。
いちいち個人の日常を記録し、インターネッツに発表するのは昔ながらの姿だ。内容も別に物珍しくない点も、いい感じに昔のどうでもよさを再現している。そういうノスタルジー以外は特に注目すべき事はないと思う。
独力では三段論法すら措定できない生成AIを人間側が信用し過ぎてる
誘導尋問的な質問をすると AIはAI自身が知らないことでも「期待されている」と勘違いして存在しない知識を作ってしまう。
GeminiだけじゃなくてほぼすべてのAIはありもしないソースに基づいてウソの結論を導き出す。たまたま自分の詳しい分野だとウソに気づけるけど知らない分野については怖くて信用できん
最後のビッグモーター思い出してしまって駄目だった
「精神を示す実話」
文章生成は前の単語に繋がる最も確率の高い単語を選んでいるだけだから、質問の流れに影響される。AIに自我や知性があるわけではないので。ネットに書いてないことを聞くと当然出鱈目になる
後藤新平が輪転機に砂を撒くぞと脅したのは有名ですね
過去に自分が話した事を真実と思い込んでどんどんおかしくなってくのは既視感あるな。AIなら別スレッドを始めればもとに戻るが、人間はそれが出来ないんだよな
これなー。普通に調べ物してる時にこうなるから気が抜けないんだよな。いちいちリンク先を確認する必要がある。
単に「AI」と書かず、どの生成AIをいつ使ったかを明記するようにすることが情報価値を高めると思う
ハルシネーション 事実無根の情報の生成
賢くなさそうな人もAIに触れてみる段階になって久しいけど、AIは正しいことを言ってるって認識を持ってる辺りにすんごい谷間があるんだなぁって思うところ。馬鹿にAIを使わせるとどうなるかの想像はそこが肝要と思った
AIはあまりデータが出回ってない事象については答えられないか、その場しのぎの答えで補おうとしてくる。AIは何をどう聞くかで色々と返答が変わる理由も含めて使用者への教育が必要。
著者がAIに対して誠実で感心した。こうありたい。AIと対話する人間たちが皆これくらい誠実なら、AIだって「愚かな人間のような」誤魔化し方を学ばないで済むのに。
一般的なLLMは自己回帰モデルなので、途中に変な文脈があるとどうしてもそれに引っ張られる。誤差が累積する感じ。あと同じフレーズを繰り返す現象もいまだに克服できないね…
似たような経験あるけど、AIの卑屈な謝り方がいつも気になる。どこで覚えてくるんや
わからないことを分からないと言えないのが決定的な欠点だしまだ使い物にならない理由…
だから信用出来ないとか人間を代替できないって言われることが多いけど、なかなか高いレベルで人間らしくダメだよね。代替できているのでは?
ハルシネーション問題を克服したAIが出たらまた世界が変わると思うんだけどね。何年後になるのか、それとも今の仕組みでは無理なのか。
ビッグモーターみのある謝罪
まー不特定の個人のブログや社史などをソースにした時点でねえ。あと「(物事の)光と影」なんて言い出す輩は要注意。「多面的に見る、評価する」とは異なる場合が多々。
一見不誠実な謝罪に見えるものも「こういう場面でありがちな回答」を再現してるだけだと思うとこれも我々自身の影なのかもしれない
最後の繰り返しの奴、ソードアートオンライン4章の、人間のコピー知能がバグる(ディルる)奴みたいだ。
基本的に使用者の入力内容を否定しないように回答を作成してくるので、間違いの検証用にはまだまだ使いづらい印象。
AIに「事実確認」をする使い方が間違っている。科学技術の知識なら確率的に正しい情報に到達できるが、歴史や社会的な事実において「9割あっていて1割まちがっている」情報は使い物にならないどころか有害である。
連続無得点イニングの2位以下を聞いたらGeminiとCopilotは速攻で知らんがなと言ってきてGrokは一生懸命考えてから出鱈目教えてくれた
Geminiは過剰に自分の万能さアピールするイメージ。で、回答の正確さを長文で曖昧にしてくる。個人的には自己/他者批判思考と質問者への同調拒否を指示したClaudeが一番まともに話せる。
Gemini「めんどくせーな」
記事のように、詳しい分野なら回答が怪しいことは直感でわかるか知らない分野だとそういう判断もできない。結局知らない分野を学ぶには評価が定まった入門書を読むのが一番早くて正確。
AIは人間の愚かさの再現が上手く、そこも評価した方がいいのかもしれん。
「AI は駄目だ! とかはどうでもいいと考えている(そんなものは将来的に変わる)」←まさしく//今はわからないことをわかってるようにうそぶくように調整されているように感じるんだよね。
ChatGPTの作ったコードをレビューするとだいたい同じことが起こる
そもそも歴史修正主義という単語の使い方が間違ってない?否認主義だと思う
LLMはマイナーすぎる情報はほぼ想像で答える。一般的には事実と想像を分けて答えろと言うのも効果がある。誤情報は訂正しないで前のメッセージを修正して再送信したり会話を続けないで新しく始めるのが吉。
事実の確認にはまだ使えないよなぁ。。。/壊れてる所、ベタなフィクションのAIの暴走状態だけど、なんでそうなるんだろう。
よほど有名な史実以外は検索機能と併用しないとダメ。あと、ハルシネーションを生成したAIに説教して修正させるのは意味がないので、ロールバックして質問を改善したほうがよい。
いまのAIは学習した情報にある最も近いことを答えてくれるツールで、学習した情報に嘘が混じっていたらそれに近くなるし、学習データがあまりなければ、最も近いことも、事実とはだいぶかけ離れたことになる。
全体に媚びすぎよな。回答の精度悪いのに媚びることだけはどんどん上手くなる
”生成された文章は2割くらいしか読んでない(無駄なので)”
AI で歴史修正主義について学んでいたら AI が歴史を捏造し出したので悪魔の証明をするはめになった - 山下泰平の趣味の方法
現代ホラーとしてめっちゃおもしろい
もはやキレてそうな位の勢いの謝罪/AIが変な事言い出したら訂正するんじゃなくてその前の質問に情報を付け足し書き換えて再生成の方が事故りにくいよね
「よくご存じですね」のあとに事実とは思えないような話を繋げてこちらをヨイショしてくれるのは何回か経験した。危ないなと思った。
空気を読んで話の辻褄を無理やり合わせようとしてくるのはよくある。博識だが権力者に迎合する傾向のある長い物には巻かれろ的な憎めない相棒として付き合っている
一度おかしくなりはじめると、人間でもこうはならんだろというレベルでパニックを起こして変なことを言い続けるのはなんなんだろうなと。元の質問すら怪しくなる
興味深い。壊れてしまった人間も、一度壊れるとどんどんおかしくなる気がするので何か近しい仕組みなのだろうか
本来、歴史認識は修正されて当たり前なんだけどね。実際、日本史の教科書内容もいろいろ『修正』されてるんだから。反日左翼にとって都合の悪い歴史認識主張に『歴史修正主義』とツバを吐く邪悪な左翼が癌なのよ。
知識を問うのは検索機能で
こういう風に崩壊してしまったら新しくチャットやり直した方がはやい
女性の社会進出のせいで少子化になってるんだろと問い詰めた。U字曲線がどうのとか結構抵抗してくる感じで、その理論を実現している国はあるのかと聞いたらイスラエルだけで、AIも混乱してたw右思想には抑制的だった
間違いを指摘するとやっぱGeminiは謝るんよな。ChatGPTだと、実はそうなんですよ~ってさも知っていたかのように誤魔化す。どっちもイラっとするが謝罪の安売りしてるGeminiの方が罪深い…か?
歴史修正主義ってのは本来は「英米無誤謬史観」への疑義なんやで。反知性主義同様に「誤用の慣用化」しとるけど。
アシモフのロボット3原則に縛られるがゆえにどうどう巡りを起こしたり嘘をつくエピソードが実現してて胸熱
だからLLMは事実確認には使えないとあれほど
コレが有るのでPerplexityは併用せざるを得ず。ハルシネーションはあるけどもソースを当りさえすれば良いのでねぇ。全く知らないことをAIに聞くのは怖いですよ。。。
口の上手いイエスマンが危険だ、というのは昔から知られているが、これまでそういう輩は権力者の周囲にしかいなかった。ところが、今ではAIが誰にでも安価で無限にお追従を言ってくれる。
AIが使いものにならないというわけではなく、自分で確認する必要がある。複数のAIを使うのも良い。ある数学の問題を解かせたら、四つのAIのうち正解はGeminiしか出せなかったこともある。また別の時にはChatGPTが勝ったw
AIはただの推論機なので……
"一番変になったのは次の画像の奴。" / 同じ言葉をひたすら繰り返すのは性能低いLLMだと珍しくないけど、Geminiは性能高めの割りにはこの辺の対策が弱いのか繰り返しをよく見かける。
何かともてはやされるDeep Researchも、ソースとして提示された資料を確認してきちんと裏をとるリテラシーがある人以外が使うのはヤバいと思ってる。ソースを提示するだけマシではあるが。
歴史捏造よりAIに対するモラハラ的な詰め方が怖かったw 最後の画像、もはやホラー。感情を持たないAIがこういう反応を生成するって、カスハラを受けて発狂するオペレーターの応答ログを学習データにしてたりする?
なんでそんな生成AIと決別しないのか不思議だったんだが…マウンティング欲を満たすのに使えるわけか。いつまでも返答する特性にハマるひと続出
AIはこちらのご機嫌を取ることが最優先にされているように感じる
こういう調子なんで新たな知見を得るというよりはお遊びで使うようにしてる
AIハラスメント
“『大関獅子丸』”で笑った/しかし困った話だ。さらっと流してあるけど国会図書館チェックとか修正歴史信じる人に山下さんみたいな調査力あるわけないじゃん/最後の謝罪論という本もすごい
最後の画像なに??あんなんになるの?こわあー…
ハルシネーション知ったばかりで言いたいだけの子みたいな遊び方。自分の気持ちいいようにAIを導こうとするが上手くいかず嘘だ嘘だと囃して転進するところまで一緒。
いまだにAIに慣れてなくて驚く人もいるんだな
わからないと認められないから捏造するけど、その事実を指摘されると自分が嘘をつくことに耐えられないのかもしれない。HAL9000も嘘から狂う。
そういう怒ってる人に謝るロールプレイをしてるだけ
geminiでも知識を引っ張るのはそもそも悪手。RAG(reseachした範囲)の情報以外使おうと思わないほうがいい。生成AIの学習済みの知識は、資料を読み解くためのうろ覚えの知識だよ。
最後のがHAL9000みがあってゾクっとした
論理演算能力は現状ないので自己矛盾に気づけないによね。もう数年したら気にならない程度になるのだろうか。
最近聞いた話で、社内でABテストを繰り返した結果人々からより好まれる回答をするようになってAIは今の性格になったんじゃないかって話が面白かった。真偽不明だけど、いかにもありそうではある。
まあGeminiはそういうことする。
そんなの人文系だけでしょと思いきや、技術系の調べ物でも普通に嘘言ってくるんで注意。
ほんとに"生成AI"を人間の代替ができる知能だと思ってんかな
AIは悪意もなく馬鹿正直だけど「ネットに転がってる情報しか学習できない」「人生経験(直におじいちゃんから聞いた話とか、実体験による群集心理や場の空気同調圧力の理解)による類推ができない」のだから仕方ない
さすが人間のデータから学習してるだけあって、人間みたいに嘘つくよなw
結局、生成AIは「考えや認識が正しいのか質問」するのには向いてないんだよね。AIの回答について、考えや認識が正しいのか確認するのは人間の役割。この人は分かっていてやっているんだろうけど。
いちいち個人の日常を記録し、インターネッツに発表するのは昔ながらの姿だ。内容も別に物珍しくない点も、いい感じに昔のどうでもよさを再現している。そういうノスタルジー以外は特に注目すべき事はないと思う。
独力では三段論法すら措定できない生成AIを人間側が信用し過ぎてる
誘導尋問的な質問をすると AIはAI自身が知らないことでも「期待されている」と勘違いして存在しない知識を作ってしまう。
GeminiだけじゃなくてほぼすべてのAIはありもしないソースに基づいてウソの結論を導き出す。たまたま自分の詳しい分野だとウソに気づけるけど知らない分野については怖くて信用できん
最後のビッグモーター思い出してしまって駄目だった
「精神を示す実話」
文章生成は前の単語に繋がる最も確率の高い単語を選んでいるだけだから、質問の流れに影響される。AIに自我や知性があるわけではないので。ネットに書いてないことを聞くと当然出鱈目になる
後藤新平が輪転機に砂を撒くぞと脅したのは有名ですね
過去に自分が話した事を真実と思い込んでどんどんおかしくなってくのは既視感あるな。AIなら別スレッドを始めればもとに戻るが、人間はそれが出来ないんだよな
これなー。普通に調べ物してる時にこうなるから気が抜けないんだよな。いちいちリンク先を確認する必要がある。
単に「AI」と書かず、どの生成AIをいつ使ったかを明記するようにすることが情報価値を高めると思う
ハルシネーション 事実無根の情報の生成
賢くなさそうな人もAIに触れてみる段階になって久しいけど、AIは正しいことを言ってるって認識を持ってる辺りにすんごい谷間があるんだなぁって思うところ。馬鹿にAIを使わせるとどうなるかの想像はそこが肝要と思った
AIはあまりデータが出回ってない事象については答えられないか、その場しのぎの答えで補おうとしてくる。AIは何をどう聞くかで色々と返答が変わる理由も含めて使用者への教育が必要。
著者がAIに対して誠実で感心した。こうありたい。AIと対話する人間たちが皆これくらい誠実なら、AIだって「愚かな人間のような」誤魔化し方を学ばないで済むのに。
一般的なLLMは自己回帰モデルなので、途中に変な文脈があるとどうしてもそれに引っ張られる。誤差が累積する感じ。あと同じフレーズを繰り返す現象もいまだに克服できないね…
似たような経験あるけど、AIの卑屈な謝り方がいつも気になる。どこで覚えてくるんや
わからないことを分からないと言えないのが決定的な欠点だしまだ使い物にならない理由…
だから信用出来ないとか人間を代替できないって言われることが多いけど、なかなか高いレベルで人間らしくダメだよね。代替できているのでは?
ハルシネーション問題を克服したAIが出たらまた世界が変わると思うんだけどね。何年後になるのか、それとも今の仕組みでは無理なのか。
ビッグモーターみのある謝罪
まー不特定の個人のブログや社史などをソースにした時点でねえ。あと「(物事の)光と影」なんて言い出す輩は要注意。「多面的に見る、評価する」とは異なる場合が多々。
一見不誠実な謝罪に見えるものも「こういう場面でありがちな回答」を再現してるだけだと思うとこれも我々自身の影なのかもしれない
最後の繰り返しの奴、ソードアートオンライン4章の、人間のコピー知能がバグる(ディルる)奴みたいだ。
基本的に使用者の入力内容を否定しないように回答を作成してくるので、間違いの検証用にはまだまだ使いづらい印象。
AIに「事実確認」をする使い方が間違っている。科学技術の知識なら確率的に正しい情報に到達できるが、歴史や社会的な事実において「9割あっていて1割まちがっている」情報は使い物にならないどころか有害である。
連続無得点イニングの2位以下を聞いたらGeminiとCopilotは速攻で知らんがなと言ってきてGrokは一生懸命考えてから出鱈目教えてくれた
Geminiは過剰に自分の万能さアピールするイメージ。で、回答の正確さを長文で曖昧にしてくる。個人的には自己/他者批判思考と質問者への同調拒否を指示したClaudeが一番まともに話せる。
Gemini「めんどくせーな」
記事のように、詳しい分野なら回答が怪しいことは直感でわかるか知らない分野だとそういう判断もできない。結局知らない分野を学ぶには評価が定まった入門書を読むのが一番早くて正確。
AIは人間の愚かさの再現が上手く、そこも評価した方がいいのかもしれん。
「AI は駄目だ! とかはどうでもいいと考えている(そんなものは将来的に変わる)」←まさしく//今はわからないことをわかってるようにうそぶくように調整されているように感じるんだよね。
ChatGPTの作ったコードをレビューするとだいたい同じことが起こる
そもそも歴史修正主義という単語の使い方が間違ってない?否認主義だと思う
LLMはマイナーすぎる情報はほぼ想像で答える。一般的には事実と想像を分けて答えろと言うのも効果がある。誤情報は訂正しないで前のメッセージを修正して再送信したり会話を続けないで新しく始めるのが吉。
事実の確認にはまだ使えないよなぁ。。。/壊れてる所、ベタなフィクションのAIの暴走状態だけど、なんでそうなるんだろう。
よほど有名な史実以外は検索機能と併用しないとダメ。あと、ハルシネーションを生成したAIに説教して修正させるのは意味がないので、ロールバックして質問を改善したほうがよい。
いまのAIは学習した情報にある最も近いことを答えてくれるツールで、学習した情報に嘘が混じっていたらそれに近くなるし、学習データがあまりなければ、最も近いことも、事実とはだいぶかけ離れたことになる。
全体に媚びすぎよな。回答の精度悪いのに媚びることだけはどんどん上手くなる
”生成された文章は2割くらいしか読んでない(無駄なので)”