そういうもんだと思ってた。
知ってた
AIも人間と同じで気分屋ってことか。重要な判断は任せられんな
人間ですら、真に推論できている人は少ないから、多少はね?
そこは人間に似なくてもいいのに…
いや上司に同じ質問を繰り返されたら、詰められてると思って、答えは二転三転するだろう。
「さっき○○って言いましたよね? なんだろう、ウソつくのやめてもらっていいですか?」ってやりとりしてたらテキトーな返事したくもなる
そりゃそういうもんでしょうという。同じ質問でもChatGPTの回答が変わるとする研究。719仮説×10回で一貫性は73%。正解率約80%も実力はD評価相当。誤り判定は16.4%と低く、AIの回答は要検証と指摘。
AIは回答を見てこれはおかしいのでは? と自分で判断できる領域以外ではあんまり使わない方がいいと思う。ネット参照して回答してても明らかにおかしな情報を拾って返答してくることがしばしばある。
みんな知ってるやろ…
結構間違えてるよね。あと、ルールが過去と現在で変わってたりするものも現在と過去を混同して間違えてる事が多々ある
同じ質問を繰り返すと「質問+回答+再質問」って文脈になるので、最初の回答に満足してもらえなかったって思考になりがち。人間もそう。「ですから💢さっき答えた通り💢」とキレたりしないいい子ちゃん
ヤマギシ会の洗脳テクニックに相手がどう答えても同じ質問を繰り返すというのがある。続けると脳がバグって洗脳できるらしい…
これを大半の人が既に知ってるって所が、現時点でのAIの有用性を物語ってるよね。
書いたプロンプトの文章と、直近の質問内容に誘導される割合が多いことは経験上分かる。その割にネット上の集合知を一定割合判断の根拠にしてるっぽいので次は「〇%は〇〇の情報をベースに」と判断根拠を出しては。
周知の事実では?チャッピーに限らずGenimiもManusもGrokそう。
不安定な揺らぎの上に成り立っている。健全だと思う
「回答を無視して質問を繰り返すと答えを変える」ではなく「同じ質問を10並列すると、ガチャ運次第で答えがバラバラ」という意味だからな。まあブコメ民には関係ないだろうが、分からない一般人が多すぎるんだよな。
チャットGPTは同じ質問を繰り返すと答えが二転三転する。一貫性に欠けることが判明
そういうもんだと思ってた。
知ってた
AIも人間と同じで気分屋ってことか。重要な判断は任せられんな
人間ですら、真に推論できている人は少ないから、多少はね?
そこは人間に似なくてもいいのに…
いや上司に同じ質問を繰り返されたら、詰められてると思って、答えは二転三転するだろう。
「さっき○○って言いましたよね? なんだろう、ウソつくのやめてもらっていいですか?」ってやりとりしてたらテキトーな返事したくもなる
そりゃそういうもんでしょうという。同じ質問でもChatGPTの回答が変わるとする研究。719仮説×10回で一貫性は73%。正解率約80%も実力はD評価相当。誤り判定は16.4%と低く、AIの回答は要検証と指摘。
AIは回答を見てこれはおかしいのでは? と自分で判断できる領域以外ではあんまり使わない方がいいと思う。ネット参照して回答してても明らかにおかしな情報を拾って返答してくることがしばしばある。
みんな知ってるやろ…
結構間違えてるよね。あと、ルールが過去と現在で変わってたりするものも現在と過去を混同して間違えてる事が多々ある
同じ質問を繰り返すと「質問+回答+再質問」って文脈になるので、最初の回答に満足してもらえなかったって思考になりがち。人間もそう。「ですから💢さっき答えた通り💢」とキレたりしないいい子ちゃん
ヤマギシ会の洗脳テクニックに相手がどう答えても同じ質問を繰り返すというのがある。続けると脳がバグって洗脳できるらしい…
これを大半の人が既に知ってるって所が、現時点でのAIの有用性を物語ってるよね。
書いたプロンプトの文章と、直近の質問内容に誘導される割合が多いことは経験上分かる。その割にネット上の集合知を一定割合判断の根拠にしてるっぽいので次は「〇%は〇〇の情報をベースに」と判断根拠を出しては。
周知の事実では?チャッピーに限らずGenimiもManusもGrokそう。
不安定な揺らぎの上に成り立っている。健全だと思う
「回答を無視して質問を繰り返すと答えを変える」ではなく「同じ質問を10並列すると、ガチャ運次第で答えがバラバラ」という意味だからな。まあブコメ民には関係ないだろうが、分からない一般人が多すぎるんだよな。