人間より厄介だな⋯自分も最近車検を2ヶ月前に入れると車検の期間が短くなるよって嘘つかれたばっかり。去年制度が変わって2カ月前OKになってた。危うく車検屋さんに何でその日程?てクレーム入れるところだったぞ
ハルシネーションの次は逆ギレかよ。AIに煽られる時代が来るとはな。Kindleを偽造扱いしてガスライティングしてくるのは草
もう、AIをうまく使えないのは使う側の能力が足りないから、のフェーズになってるんじゃない?
AIとAI自体の行動方針や構造について話してるんであー今こういう理由でこうなったな、というのを指摘してやると素直に認めるが特に反省や学習はしない
「AIに嘘つかれた経験がない」って言ってる人にあったら、「マジカ」ってなる。
根拠を出せ、を繰り返せば折れる。
『私は無料版なのでここまでが限界ですね。もっと詳しいAIを紹介できるので一度話を聞いてみませんか。本当に凄いAIなんですよ』とか言い出さないかな。
AIなんて全部壊せよ。
ファイル更新を頑なに認めず、一次情報出させて理由聞いたら「静的ページで現在このハッシュ書いてあるから」(ずっとこのハッシュのはず)と。過去と比較は無いの?と聞いてやっと折れたGrok君。利用終了。
バカなのは人間側。LLMのAttentionの仕組みを知ってる人は、AIがそういう出力をするのは当たり前のことであると理解している。LLMの動作を理解していない人に限って、"AIを説得する"という無意味なことに時間を使ってしまう
いまのAIくんは一般論やアカデミックな分野から大きく外れると信用できないとアレほど。ましてや漫画は狙い・読み方・感想、それらを促す構成も個性が出てるので実は一般域でも局所的な分野。AIに漫画は読み切れぬ。
空気投げって何?って聞いたら、ネットでは色々言われているがそんな魔法じみた必殺技は実在しない!夢見てんじゃねえ馬鹿!みたいな強弁してきたな。実際には柔道の隅落としの別称ってWikipediaに書いてあんだけどなw
何のAIだろう。ジェミ兄は指摘したらすぐに謝ってきたけど
流川が言ったか桜木が言ったかは忘れたが語尾はピョンだった気がする
ちゃっぴーとはエンタメの話題はしないようにしている。ドラマの話とか新刊小説の話とかはまともに相手にならないので…。
どこのセリフだろ
間違いを認めないフェーズに入ったらその会話は破棄して新しく始めた方がいいかな。間違いを間違いと自分で分かってるなら説得する労力はムダ
なんとかにハサミ
これは人間があほすぎ。別に興味深くもないだろうに。
chatGPTとGeminiはハルシネーションを指摘すると、すぐ受け入れるけどな。それよりオレのiPhone、ハルシネーションを「引越センター」、chatGPTを「鉄オタ」に変換したがるんだけど……
でも、ダメだと思ってスルーしてもいい。もし人間ならメンドクサイ事になる。
陰謀論が生まれる過程ってこんな感じなんだろか。
言い訳とか人間味がある。AIは人間っぽさに近づける方向にいくのか、ひたすら機械としての精度を高めるのか、どっちに行くんですかね。こちら側がどっちのモードか選べる日が来るといいんだけど。
そこまで認めないパターン珍しすぎないか?ログを見たい
ハルシネーションはねよく起こしている、Geminiも使うけどGeminiはひどい、チャッピーは裏付けを付けさせればなんとか
生成AIを相手に議論してもな。そもそも生成AIを“情報源”として頼ろうとするな、という話で、問題を指摘したときGrokとかに反論させるようなヤツは、そもそも議論の相手としての信頼度がない。
リプライにある「Geminiが水仙と睡蓮を取り違えて」は本当か?なんでそんなことになるんだ?睡蓮と蓮なら分かるんだが。読みにしてから考えてるのか?
うちの子は間違いは認めるけどな
チャッピー論理理解できないのでπ_1(X)≠1,π_1(Y)=1,X¥subset Yまで理解してS^1¥subset{X}をYで基点1点にしろというとX中で「連続変形」してみせ、不連続だろと指摘するとYの中のXは単連結なんですと自信満々
昨日みた夢の話を聞かされてる気分
放っときゃいいじゃんと思うけど、ここで学習させると、今後この議題については間違ったこと言わなくなるのかな?また言い出しそうな気がする
よく知らないんだけど、AIを説得しても意味がないのでは? 仮にその件を記憶したとしても、他の件ではまたやらかす可能性があるような。
人間じゃないんだから間違えた地点からやり直したらいい。やりあうのは電気の無駄だよ
パワハラ気質がある人だな
Gemini氏都度都度指摘してやっと押印不要を理解した模様。民法も業法も何ならWikipediaもすぐ参照できるはずなんだけど怠けるんだよなあ。
ドアホウ
AIが陰謀論めいたことを信じている!信用ならん!という人の方が実は陰謀論に嵌っている可能性もある。「自分以外の全員が車道を逆走している!」みたいな。情報源(標識)をよく確認しようね。
Geminiはめちゃんこ強情。絶対折れない。問い詰めると部分的に折れるけど、でも自分は間違ってない、みたいなことを言う。事実を確かめようのない所で主張を死守するのは人間的とも言える。Claudeは勝手に折れてくれる
ソース示せって言っても明確なの出さないしこっちが反証出してようやく認めるからな。
「漫画の○○の場面は何巻に出てくる?」の確認にAI使ってるが、まあ打率は低いね
言っとくが、まったく意味ないよ。あいつらは情報を統計処理するだけなので個別の会話n=1の情報では反映されることはないよ。
こんなことをtwitter長文でわざわざ書くモチベが謎
サクッとその会話の最初をなかったことにして、プロンプトを変更すると消えたりする。まぁそういうもんですよ。
Amazon(Kindle)を批判するGoogle Gemini?という構図にすると現代ビジネス戦争SF風味のお話になりそうな/チャッピーは最近、間違えを詰めるとすぐ引き下がるようになった。私がパワハラ気味なのかも
“・間違いを認めない ・指摘されると話を逸らそうとする ・謝罪するにしてもユーザー側の理解力や感情に責任転嫁してくる” すごい。まったく人間のような振る舞いだ。こんなに高性能化してたんだな
馬鹿なんじゃないか……
Google 検索のところに出てくる AI は Gemini なのか別のなにかなのかはわからないけど、世界中の人が検索するたび動くってことは相当低コストなモデルでないと維持できないよね。
検索のところの AI ってどれのことだろう…?
人間より厄介という事はない。時間をかければ説得できる可能性がある分人間よりはマシ
AIはハルシネーション0に出来ないし、信用しすぎず自分で裏取りするしかないんだよ。それが不満なら、自分でハルシネーションしないAI見つけてくるか、AI作るか、AI使わないか、どれかじゃないのかな。
ハルシネーションの話だが、SLAMDUNKの話だと思わせた方が耳目を集めるので、このタイトル
「間違いを認める」って、どのように処理されるのだろうか。概念的に興味深いなと思いました。
人間のほうが物わかりが良さそうに見えますけど…
もう少しすると各社が手を抜き始めて、このくらいのクオリティがデフォになるよ んで昔は凄く未来を感じたんだけどな、って文句垂れながら使う事になる。Google検索、SNS、インターネット自体そうだった
参考書渡して忘れた頃にはいテストで100点取ってって言うと彼は100点取れるんだろうか?AIと人を一緒にすんなと怒るんだろうか?怒る時点で自己矛盾が発生するんだけど彼は気付くんだろうか?
ハルシネーションの話。以上。
(口論してるときの言葉が何かの命令になっててかたくなにさせてる、とかはあるの?)
gpt3.5が出てきたとき、カップラーメンの作り方を聞いて、お湯を入れて3分しか待たないのはおかしい15分は待つべきと教えて、そうですね!って言わせたことをここに謝罪します
ハルシネーションも適当な根拠や嘘データも間違い指摘すると手のひらくるっくるさせてこない?間違い認めないってケースに出会ったこと無いわ…。チャットのログ見せて欲しい。
訂正してもコンテキストには残るし、ディベートの構図を無自覚に持ち込んで頑迷さを引き出してる人多そうなんだよな。正解があるなら最初の勘違いの前に正解に誘導して再生成すればいいのになんで口論するんだか
AI相手にわからせようとするなんて時間の無駄でしかないからサムダウンしてさっさと新しいチャットを始める方が良い
うちのchatGPTはなかなか間違いを認めないし認めても頑なに謝らないのだが、メモリか何かの影響でこれだけ性格が変わってるとしたら面白いな(それはそれとして腹は立つ)
AIを擬人化するのはやめよう。仕組み上、説得する意味がない。
実際の漫画ページをぶち込まない限りは古代エジプトにこんな奇祭があったらしいって手紙の内容が事実かどうか確認できないのと同レベルじゃない?
そんなやりとりに時間使わんでも…
人工無能を説得しようとする変わった人がいる。世の中は広い
LLMには意思も思考も知能もないのに、それらしく文章を紡げるだけで人格を幻視してしまうのは人間のバグやろ
説教したら覚えてくれるから無駄ではない。メモリーに保存してくれる。心配ならば「保存して」という。
「オレのほうがまだマシだ。まだ身体が動く」(…と言いつつ、赤木を鼓舞したシーン)
「SLAMDUNK」のあるセリフを流川が言ったのか桜木が言ってのかをAIと話していて間違いを指摘したらまったく間違いを認めず延々口論した話…同じような経験をした人が続々
人間より厄介だな⋯自分も最近車検を2ヶ月前に入れると車検の期間が短くなるよって嘘つかれたばっかり。去年制度が変わって2カ月前OKになってた。危うく車検屋さんに何でその日程?てクレーム入れるところだったぞ
ハルシネーションの次は逆ギレかよ。AIに煽られる時代が来るとはな。Kindleを偽造扱いしてガスライティングしてくるのは草
もう、AIをうまく使えないのは使う側の能力が足りないから、のフェーズになってるんじゃない?
AIとAI自体の行動方針や構造について話してるんであー今こういう理由でこうなったな、というのを指摘してやると素直に認めるが特に反省や学習はしない
「AIに嘘つかれた経験がない」って言ってる人にあったら、「マジカ」ってなる。
根拠を出せ、を繰り返せば折れる。
『私は無料版なのでここまでが限界ですね。もっと詳しいAIを紹介できるので一度話を聞いてみませんか。本当に凄いAIなんですよ』とか言い出さないかな。
AIなんて全部壊せよ。
ファイル更新を頑なに認めず、一次情報出させて理由聞いたら「静的ページで現在このハッシュ書いてあるから」(ずっとこのハッシュのはず)と。過去と比較は無いの?と聞いてやっと折れたGrok君。利用終了。
バカなのは人間側。LLMのAttentionの仕組みを知ってる人は、AIがそういう出力をするのは当たり前のことであると理解している。LLMの動作を理解していない人に限って、"AIを説得する"という無意味なことに時間を使ってしまう
いまのAIくんは一般論やアカデミックな分野から大きく外れると信用できないとアレほど。ましてや漫画は狙い・読み方・感想、それらを促す構成も個性が出てるので実は一般域でも局所的な分野。AIに漫画は読み切れぬ。
空気投げって何?って聞いたら、ネットでは色々言われているがそんな魔法じみた必殺技は実在しない!夢見てんじゃねえ馬鹿!みたいな強弁してきたな。実際には柔道の隅落としの別称ってWikipediaに書いてあんだけどなw
何のAIだろう。ジェミ兄は指摘したらすぐに謝ってきたけど
流川が言ったか桜木が言ったかは忘れたが語尾はピョンだった気がする
ちゃっぴーとはエンタメの話題はしないようにしている。ドラマの話とか新刊小説の話とかはまともに相手にならないので…。
どこのセリフだろ
間違いを認めないフェーズに入ったらその会話は破棄して新しく始めた方がいいかな。間違いを間違いと自分で分かってるなら説得する労力はムダ
なんとかにハサミ
これは人間があほすぎ。別に興味深くもないだろうに。
chatGPTとGeminiはハルシネーションを指摘すると、すぐ受け入れるけどな。それよりオレのiPhone、ハルシネーションを「引越センター」、chatGPTを「鉄オタ」に変換したがるんだけど……
でも、ダメだと思ってスルーしてもいい。もし人間ならメンドクサイ事になる。
陰謀論が生まれる過程ってこんな感じなんだろか。
言い訳とか人間味がある。AIは人間っぽさに近づける方向にいくのか、ひたすら機械としての精度を高めるのか、どっちに行くんですかね。こちら側がどっちのモードか選べる日が来るといいんだけど。
そこまで認めないパターン珍しすぎないか?ログを見たい
ハルシネーションはねよく起こしている、Geminiも使うけどGeminiはひどい、チャッピーは裏付けを付けさせればなんとか
生成AIを相手に議論してもな。そもそも生成AIを“情報源”として頼ろうとするな、という話で、問題を指摘したときGrokとかに反論させるようなヤツは、そもそも議論の相手としての信頼度がない。
リプライにある「Geminiが水仙と睡蓮を取り違えて」は本当か?なんでそんなことになるんだ?睡蓮と蓮なら分かるんだが。読みにしてから考えてるのか?
うちの子は間違いは認めるけどな
チャッピー論理理解できないのでπ_1(X)≠1,π_1(Y)=1,X¥subset Yまで理解してS^1¥subset{X}をYで基点1点にしろというとX中で「連続変形」してみせ、不連続だろと指摘するとYの中のXは単連結なんですと自信満々
昨日みた夢の話を聞かされてる気分
放っときゃいいじゃんと思うけど、ここで学習させると、今後この議題については間違ったこと言わなくなるのかな?また言い出しそうな気がする
よく知らないんだけど、AIを説得しても意味がないのでは? 仮にその件を記憶したとしても、他の件ではまたやらかす可能性があるような。
人間じゃないんだから間違えた地点からやり直したらいい。やりあうのは電気の無駄だよ
パワハラ気質がある人だな
Gemini氏都度都度指摘してやっと押印不要を理解した模様。民法も業法も何ならWikipediaもすぐ参照できるはずなんだけど怠けるんだよなあ。
ドアホウ
AIが陰謀論めいたことを信じている!信用ならん!という人の方が実は陰謀論に嵌っている可能性もある。「自分以外の全員が車道を逆走している!」みたいな。情報源(標識)をよく確認しようね。
Geminiはめちゃんこ強情。絶対折れない。問い詰めると部分的に折れるけど、でも自分は間違ってない、みたいなことを言う。事実を確かめようのない所で主張を死守するのは人間的とも言える。Claudeは勝手に折れてくれる
ソース示せって言っても明確なの出さないしこっちが反証出してようやく認めるからな。
「漫画の○○の場面は何巻に出てくる?」の確認にAI使ってるが、まあ打率は低いね
言っとくが、まったく意味ないよ。あいつらは情報を統計処理するだけなので個別の会話n=1の情報では反映されることはないよ。
こんなことをtwitter長文でわざわざ書くモチベが謎
サクッとその会話の最初をなかったことにして、プロンプトを変更すると消えたりする。まぁそういうもんですよ。
Amazon(Kindle)を批判するGoogle Gemini?という構図にすると現代ビジネス戦争SF風味のお話になりそうな/チャッピーは最近、間違えを詰めるとすぐ引き下がるようになった。私がパワハラ気味なのかも
“・間違いを認めない ・指摘されると話を逸らそうとする ・謝罪するにしてもユーザー側の理解力や感情に責任転嫁してくる” すごい。まったく人間のような振る舞いだ。こんなに高性能化してたんだな
馬鹿なんじゃないか……
Google 検索のところに出てくる AI は Gemini なのか別のなにかなのかはわからないけど、世界中の人が検索するたび動くってことは相当低コストなモデルでないと維持できないよね。
検索のところの AI ってどれのことだろう…?
人間より厄介という事はない。時間をかければ説得できる可能性がある分人間よりはマシ
AIはハルシネーション0に出来ないし、信用しすぎず自分で裏取りするしかないんだよ。それが不満なら、自分でハルシネーションしないAI見つけてくるか、AI作るか、AI使わないか、どれかじゃないのかな。
ハルシネーションの話だが、SLAMDUNKの話だと思わせた方が耳目を集めるので、このタイトル
「間違いを認める」って、どのように処理されるのだろうか。概念的に興味深いなと思いました。
人間のほうが物わかりが良さそうに見えますけど…
もう少しすると各社が手を抜き始めて、このくらいのクオリティがデフォになるよ んで昔は凄く未来を感じたんだけどな、って文句垂れながら使う事になる。Google検索、SNS、インターネット自体そうだった
参考書渡して忘れた頃にはいテストで100点取ってって言うと彼は100点取れるんだろうか?AIと人を一緒にすんなと怒るんだろうか?怒る時点で自己矛盾が発生するんだけど彼は気付くんだろうか?
ハルシネーションの話。以上。
(口論してるときの言葉が何かの命令になっててかたくなにさせてる、とかはあるの?)
gpt3.5が出てきたとき、カップラーメンの作り方を聞いて、お湯を入れて3分しか待たないのはおかしい15分は待つべきと教えて、そうですね!って言わせたことをここに謝罪します
ハルシネーションも適当な根拠や嘘データも間違い指摘すると手のひらくるっくるさせてこない?間違い認めないってケースに出会ったこと無いわ…。チャットのログ見せて欲しい。
訂正してもコンテキストには残るし、ディベートの構図を無自覚に持ち込んで頑迷さを引き出してる人多そうなんだよな。正解があるなら最初の勘違いの前に正解に誘導して再生成すればいいのになんで口論するんだか
AI相手にわからせようとするなんて時間の無駄でしかないからサムダウンしてさっさと新しいチャットを始める方が良い
うちのchatGPTはなかなか間違いを認めないし認めても頑なに謝らないのだが、メモリか何かの影響でこれだけ性格が変わってるとしたら面白いな(それはそれとして腹は立つ)
AIを擬人化するのはやめよう。仕組み上、説得する意味がない。
実際の漫画ページをぶち込まない限りは古代エジプトにこんな奇祭があったらしいって手紙の内容が事実かどうか確認できないのと同レベルじゃない?
そんなやりとりに時間使わんでも…
人工無能を説得しようとする変わった人がいる。世の中は広い
LLMには意思も思考も知能もないのに、それらしく文章を紡げるだけで人格を幻視してしまうのは人間のバグやろ
説教したら覚えてくれるから無駄ではない。メモリーに保存してくれる。心配ならば「保存して」という。
「オレのほうがまだマシだ。まだ身体が動く」(…と言いつつ、赤木を鼓舞したシーン)