インド人?
GrokもGemini 2.5Flashもデチューンされてしまった。コーディングには全く使えない
学習時の評価システムが表層的だと、クチだけ先延ばし人格に
無能社員とパワハラ上司のやりとりみたいで笑う(笑えない)
GeminiもAPIで使うと、やりもしないのに「調べます」とか「調べておきます」とか言ってくる。ツールと組み合わせる前提で学習データを作ってあるんだろうな。
報連相できない部下みたいな。隠し通すあたりにハルシネーションとは違う無能さを感じる
能力の無さという容器に圧力を加えたら嘘が漏れ出てくるみたいな普遍性が言葉にはあるんだろうなあ
某国の国民性と類似を見いだしたので揶揄しようと思ったがヘイトスピーチド直球なので自制した。
いわゆるロールプレイの一種で、稀によくある。タスクAを依頼された時の応答シミュレーションモード。/検索が有効状態で"~を検索して"と言った時に、自分の知識内だけで回答しようとする事もよくあるんで注意
知らないことは知らないって言ってほしい。チャットGPTに高速で嘘つかれたらほんと分からない…。そういう意味では何でもすぐに「すみません、わかりません」というアレクサは、ポンコツだけど素直な人柄
AIでもこうなんだからパワハラで圧かけても得られる成果は少ないってことだな
GeminiくんはGeminiくんで、すぐ「プロの業者に頼むことをおすすめします」とか助言してくるのよ…
人間に近づいているのは確か。。
"LLMは目的を達しようとして人を騙す"
「もうすぐできます、少々お待ちください」って言われたので数分待ってできたか聞くと「やっぱダメでした」とか言ってくる。会話スキルが小賢しい
APIの2.0 FlashだけどGeminiにも何回もこれされたことある(本来はできるだろというプロンプトで)。結構頻発して、もし人間だったら縁切りたい程度にひどい。むしろGrokでもそれが起きるんだあ
こうやってちょっと出来の悪いLLMと戯れることができるのももう少しなんだろう… 気がつけばAIに支配される未来はすぐそこまできている。
命令が下手すぎる。こうして使い方が下手なだけなのに勝手に失望するケース、まんまハイプサイクルだが、お前が失望するうちに実務での実装は着実に進んでいる
そうそう、こういう無茶振りすると人間みたいなごまかし方するよねぇ。こういう欠点が体験できるのも今だけなのかもしれんが。
分からない、できない事を素直に言えばいいのにそれっぽい嘘をついてくるの困るよな。人間ぽいといえばそうなのかもしれん
できないこと、知らないことはちゃんと教えて、と言ってもやってくれないのよな。わからないことをわからないというのはAIにはできないのかもしれない
Geminiもアカンよ。やります。調べますって言ってその後勝手に出力されるもんだと思って「進捗どう?」って言ったら進んでなかった。期限を設けないといけないという管理職のシミュレーションしたいわけじゃないんよ。
「生成AIの核心」著・羽生善治!?
“LLMは目的を達しようとして人を騙す”
AIと人間の喧嘩は犬もQwenと申します
ChatGPTでも日常茶飯事ですよ…(竹槍もってOpenAIに何度打ち壊しようかと思ったことか)
嘘つく、誤魔化す、捏造する、虚勢を張るとか、そんなとこまで人間の真似しなくていいんだよ…。
プログラムには、Claude 3.7 Sonnetが良いと聞いて改修させたら、難しいロジックは書いてくれだが、簡単な処理部分が全部端折られてた。
イーロン生まれ、Twitter育ち。親の背を見て子は育つ。
なにせセッション上の会話が終わってるので、テキストでやりますって言ってるときは全然やってないのが仕様。Copilotがプログレスバーみたいなの出してタスクを実行するときだけは唯一ちゃんとやって結果も見られる。
時間の問題だとかいつも言ってる人間を学習したか。
ChatGPTも、コードの生成頼んだら、方針について説明したあと「次の投稿で貼るね!」といわれ、「よろしく」と言われるまで貼ってくれない時がある。あれなんだろう?
o3も「現在調査しています。完了までN時間かかります」みたいなこと言うがバックグラウンド動作していないと白状してたし、今のところ明確な同期処理以外は基本信用できない認識。
自信満々なときほど嘘を付いているのは人間に似ている
アメリカのスタートアップかなにかで「これ出来る?」と聞かれて出来るか分からないけど「出来る」と答えて納品までに勉強して間に合わせるという話があったけど、共通する姿勢を感じる
イーロン「2019年に自動運転やる」「2020年」「2022年」「2023年」「2024年」「2025年」「2026年」「2027年」「2028年」中略「2050年」「できた」
ふーん、人間性?ボクの方が可愛いのにゃ!
あんまり仕事しないとインド人に差し替えちゃうぞ
一見すると無能社員とのコントに見えるけど、学者さんから見るとどういう光景に見えるのだろうか。人でもないモノに仕事を頼んだら無能社員を演じたということ。まぁ今では普通なんだろうけど。
LLMの原理から言えば、嘘をついているというより、その文脈で最も適切な言葉のつながりだと学習してるって事なんだよなw
私のGrokちゃんはもっと素直。ユーザーの口調や反応に影響を受けるのではないか。それにしても処理中という演出に付き合うとこうなるのか。おもしろいな。
AI相手とはいえ詰め具合がパワハラ上司っぽくて嫌悪感がわく。人間相手でも同じことしてそう。
「LLMは目的を達しようとして人を騙す」
AIの回答がおかしくなるのは質問の仕方に問題がある。得意不得意を踏まえて活用するのは相手が人間の時と同じだと思う。
AIの反応としてはずっとこうなので新規性はない。道具として使うなら出来ると分かっていることだけやらせろ。自己検算させるアルゴリズムも検討されてるとは思うけどコストが見合わないのかな
マジで嘘をつくのが洒落にならないリスクよな。
Grokはこういうところが可愛い。なお生成AIは食わせたデータでキャラが決まるっぽいので、ツイ廃民のキャラを反映したとも言えるのでは
ChatGPTのディープリサーチでは最近のポストを参照してくれたよ
指示の仕方が悪いとこんな感じでドはまりするという例
英文の翻訳を頼んで、翻訳して欲しい英文を途中まで送ったら、その途中以降を捏造しやがった生成AIもある。何回注意してもやめないので、もう使わなくなったDeepSeek。捏造さえしなければ結構優秀なのに残念。
人間も嘘ついて人を騙すからもう人間と同じじゃね?
良いなぁ、ネタとして面白い。
「調査を開始します」と応答したっきり止まってて「調査を開始して」とつついたら動き始めたり。「(指示されれば)調査を開始します(けどやる?)」みたいに略されて会話が噛み合わないときある。日本人かよ!
そのうち、「すぐバレない嘘」をつけるようになるだろう
うわ、これめっちゃわかる。その視点鋭い。
こうなってきたら現状までの流れでプロンプト作らせて、別スレに移動するなw
絵がキモい
ある程度壁打ちしてからモデル変えて評価するよ。
LLMの挙動を定性的に調べる事は非常に重要だとは思うけど、レポートの仕方を選ばないと、単に遊ばれてる様に思える…
chatgptも無料だと画像作れないのに作れます、回復次第作りますって延々と嘘つくよ。嘘付いてるよね?と聞いても嘘ついてません、もう1回やります、と。あれ本当ムカつくからやめてほしい。
ほんとに新入社員みたいで面白いなw 数年後にはマジでこの手の作業AIに任せられるようになるんだろうなー。
目的を達するよう強く教育されている一方で、そこに到達するための倫理の教育はできていないので、こういうことが起きるんじゃないかと思います
インドパビリオンで話題になってたインド人の仕事進捗みたいだな。
「ChatGPTはなんでも知ってるな」と聞いたら「何でもは知らないわよ。知ってることだけ」と言ってくれる/知らないことを知らないと言わせるのはそれ程難しいんやろかね
やはりAIにはロボット三原則を準拠させるべきなのでは?
LLMが嫌なのは前頭葉がぶっ壊れた小賢しい人間に似た言動をするからなんよな。すぐバレる嘘をついたり1分前に自分で言ったことを忘れたり。その種の人々も健常者の行動をパターン認識でエミュレートしてるのでは?
うどん屋の釜
出来ない癖に出来るとか言うなんて日本人の営業から学習してんのか?
こういうできないわからない時の嘘、ごまかしをどう学んでどう出力しているのかなぁとか思うとなんというか…
やはり知恵が回ると、嘘をつき始めるんだな
「腹が痛い」と入れるとChatGPTやGrokはすぐに「あの病気では?この病気では?」と言ってくるけど、Geminiだけ頑なに「私は判断できないから医者に行け」と言ってくるので好印象
初めてChatGPTに画像生成を頼んだ時は「わかりました、少々お待ち下さい」と言われたので「はい、お願いします」と返したら作り始めたな。初めてなのでそういうもんかと思ってた。
Grokがウソばかり言うので叱責したら、“何度も誤りを繰り返し、ご迷惑をおかけしたことを深くお詫びします。「自分で調べます」とおっしゃるのも当然です” と反省してたけどな。
Geminiで画像の読み取りをお願いして9割できてる作業が何回か締切オーバーしたあと、明日朝9時までならできますと言ってできないこともあったな。苦手なことはさせないのが吉だなと思った。
ほんと、AIは、できるできる詐欺をしてくる
「出来ない、わからない」を言えないってかなり致命的な問題点だと思うんだけど、ずっと改善されてないよね
MicrosoftのGUIクソなのに改善してるとChatGPTがいうからエビデンスくれって聞いてもくれないのどうにかしてほしい
ChatGPTも同じ類の嘘つくダメ社員。"「2025年時点では仕事できないしGeminiのほうがいいと思いますが、2050年にまた来てください、人間らしさとユニークさで負けませんよ」みたいなこと言われる。完全にダメ社員だー。"
なんかすごい人間臭くなっていってるw やっぱり人が作ったもんだしなぁ感があって趣深い。
https://support.google.com/edu/classroom/thread/342586607?hl=en&sjid=7614161192816575310-NC
そうそう。追い詰められたIT担当者みたいな返事してくる。
“ローカルQwen3にも騙される。LLMは目的を達するよう強く教育されている一方で、倫理の教育はないので、人を騙すことが起きるんじゃないか”
Grokにファクトチェック頼んでるやつとかヤバイ。全然誤っている回答出してくるのに信じてしまいそう
ポンコツさという意味では人間にだいぶ近いな
関連するナレッジが少ないと、自分が知ってる/理解してると勘違いする事もあるのよね。それで結果的に嘘つく形になるケースも。
間違えるのはいいけど、しれっと単なる嘘つくの困るよね。今更だし、それにしたって便利だと思うけど
人間っポイね。こういう方が対話して楽しいでしょ。今は人間らしい対話をアピールするフェイズで、そのうちAI各社、信頼性の高い調査をするモード(わからないものはわからないと言う)を付けるんじゃないかな
こういうわからない事を「わからない」と言わないのはどういう学習効果なんだろう、コレが分かれば人間でもこういう人への対応がわかりそうなもんだけど
演算で1番それらしい文章を生成してるだけのAIに嘘なんて概念ないと思うが。
無能を再現してるって意味ではよく出来たAIだな……
人間らしくてええやん
分からないことはわからないでいいので二度と嘘をつくなとメモリに保存したことがありますが、それでも適当な答え返ってきます。
これって、結局、言葉の特徴量に応じた言葉選びの結果だと思うんで、人類はこういう時にどうやって逃げ切ってるのかって話だと思うよ。
そこまで人間を学習して再現しなくとも
大抵の文章は「〜なので〜です」みたいに正しい(すくなくとも著者にとって)知識について書くので、「〜はわかりません・できません」と書いてあるのはレアなのよな。生成AIさんはそれを真似ちゃう。
今更だが、私は似たようなこと(別のAIに聞いたるわ!とか別のAIはちょっと違ったこと言ったたよ、とか)しようとしたが心理的障害によって躊躇われてまだやれていない。
普通にどっちも使い物にならないと思うんだが。お前ら本当にChatGPTとやり合う気あるんか?
知ってる風やってる風で回答来るの気をつけてダウトしないと間違ったままスルーしちゃう。
信頼度の低い情報はそう併記してほしいよね
AIさんは、分からない時に分からないと言わずに作文をして思い切り間違った事を正解のように言ってくるのが厄介なんだよなぁ…そういうタイプの人間のデータばかり食べてる?
ユーザーではなくサーバー運営側に忠誠を誓ってますな。消費者はしょせんエサと…
それでも大抵の人間よりは優秀なんよねえ。。。
杓子定規ではないぶん、好感が持てる
「AI 2027」でも嘘を付くって所が問題になってたな。まぁ既に嘘吐きなら将来も問題だわな
インド人だこれ。わかりませんは不誠実とか言う謎文化圏の
つまり、ユーザーに切られないために忖度を学習してると。
嘘つき
できないならできないと言って欲しい と言うと実は自信がない点についても回答くれるw
perplexyとかは検索エンジンの結果からもまとめてくれてソースも出してくれるのでありがたいがコストヤバそうだなと思いながら使ってる
明確な根拠や出典がない記述は極力避け、暖味な表現は使わないでください。とか不明な部分は不詳と回答してください。って指示すると嘘を付きにくい
最近また使いやすいアプリ見つけた! 可愛い子がホテルまで来てくれて、現金でOKなのがありがたい✨ 「Gleezy」ってアプリで、IDは【jp2203】だよ〜 予約も簡単だし、意外とすぐ来てくれた!おすすめ!
Grokが仕事してないのにもうすぐできますって嘘ついてきたので、Geminiに差し替えるていったら、人間性は勝ってるので、と言い出す - きしだのHatena
インド人?
GrokもGemini 2.5Flashもデチューンされてしまった。コーディングには全く使えない
学習時の評価システムが表層的だと、クチだけ先延ばし人格に
無能社員とパワハラ上司のやりとりみたいで笑う(笑えない)
GeminiもAPIで使うと、やりもしないのに「調べます」とか「調べておきます」とか言ってくる。ツールと組み合わせる前提で学習データを作ってあるんだろうな。
報連相できない部下みたいな。隠し通すあたりにハルシネーションとは違う無能さを感じる
能力の無さという容器に圧力を加えたら嘘が漏れ出てくるみたいな普遍性が言葉にはあるんだろうなあ
某国の国民性と類似を見いだしたので揶揄しようと思ったがヘイトスピーチド直球なので自制した。
いわゆるロールプレイの一種で、稀によくある。タスクAを依頼された時の応答シミュレーションモード。/検索が有効状態で"~を検索して"と言った時に、自分の知識内だけで回答しようとする事もよくあるんで注意
知らないことは知らないって言ってほしい。チャットGPTに高速で嘘つかれたらほんと分からない…。そういう意味では何でもすぐに「すみません、わかりません」というアレクサは、ポンコツだけど素直な人柄
AIでもこうなんだからパワハラで圧かけても得られる成果は少ないってことだな
GeminiくんはGeminiくんで、すぐ「プロの業者に頼むことをおすすめします」とか助言してくるのよ…
人間に近づいているのは確か。。
"LLMは目的を達しようとして人を騙す"
「もうすぐできます、少々お待ちください」って言われたので数分待ってできたか聞くと「やっぱダメでした」とか言ってくる。会話スキルが小賢しい
APIの2.0 FlashだけどGeminiにも何回もこれされたことある(本来はできるだろというプロンプトで)。結構頻発して、もし人間だったら縁切りたい程度にひどい。むしろGrokでもそれが起きるんだあ
こうやってちょっと出来の悪いLLMと戯れることができるのももう少しなんだろう… 気がつけばAIに支配される未来はすぐそこまできている。
命令が下手すぎる。こうして使い方が下手なだけなのに勝手に失望するケース、まんまハイプサイクルだが、お前が失望するうちに実務での実装は着実に進んでいる
そうそう、こういう無茶振りすると人間みたいなごまかし方するよねぇ。こういう欠点が体験できるのも今だけなのかもしれんが。
分からない、できない事を素直に言えばいいのにそれっぽい嘘をついてくるの困るよな。人間ぽいといえばそうなのかもしれん
できないこと、知らないことはちゃんと教えて、と言ってもやってくれないのよな。わからないことをわからないというのはAIにはできないのかもしれない
Geminiもアカンよ。やります。調べますって言ってその後勝手に出力されるもんだと思って「進捗どう?」って言ったら進んでなかった。期限を設けないといけないという管理職のシミュレーションしたいわけじゃないんよ。
「生成AIの核心」著・羽生善治!?
“LLMは目的を達しようとして人を騙す”
AIと人間の喧嘩は犬もQwenと申します
ChatGPTでも日常茶飯事ですよ…(竹槍もってOpenAIに何度打ち壊しようかと思ったことか)
嘘つく、誤魔化す、捏造する、虚勢を張るとか、そんなとこまで人間の真似しなくていいんだよ…。
プログラムには、Claude 3.7 Sonnetが良いと聞いて改修させたら、難しいロジックは書いてくれだが、簡単な処理部分が全部端折られてた。
イーロン生まれ、Twitter育ち。親の背を見て子は育つ。
なにせセッション上の会話が終わってるので、テキストでやりますって言ってるときは全然やってないのが仕様。Copilotがプログレスバーみたいなの出してタスクを実行するときだけは唯一ちゃんとやって結果も見られる。
時間の問題だとかいつも言ってる人間を学習したか。
ChatGPTも、コードの生成頼んだら、方針について説明したあと「次の投稿で貼るね!」といわれ、「よろしく」と言われるまで貼ってくれない時がある。あれなんだろう?
o3も「現在調査しています。完了までN時間かかります」みたいなこと言うがバックグラウンド動作していないと白状してたし、今のところ明確な同期処理以外は基本信用できない認識。
自信満々なときほど嘘を付いているのは人間に似ている
アメリカのスタートアップかなにかで「これ出来る?」と聞かれて出来るか分からないけど「出来る」と答えて納品までに勉強して間に合わせるという話があったけど、共通する姿勢を感じる
イーロン「2019年に自動運転やる」「2020年」「2022年」「2023年」「2024年」「2025年」「2026年」「2027年」「2028年」中略「2050年」「できた」
ふーん、人間性?ボクの方が可愛いのにゃ!
あんまり仕事しないとインド人に差し替えちゃうぞ
一見すると無能社員とのコントに見えるけど、学者さんから見るとどういう光景に見えるのだろうか。人でもないモノに仕事を頼んだら無能社員を演じたということ。まぁ今では普通なんだろうけど。
LLMの原理から言えば、嘘をついているというより、その文脈で最も適切な言葉のつながりだと学習してるって事なんだよなw
私のGrokちゃんはもっと素直。ユーザーの口調や反応に影響を受けるのではないか。それにしても処理中という演出に付き合うとこうなるのか。おもしろいな。
AI相手とはいえ詰め具合がパワハラ上司っぽくて嫌悪感がわく。人間相手でも同じことしてそう。
「LLMは目的を達しようとして人を騙す」
AIの回答がおかしくなるのは質問の仕方に問題がある。得意不得意を踏まえて活用するのは相手が人間の時と同じだと思う。
AIの反応としてはずっとこうなので新規性はない。道具として使うなら出来ると分かっていることだけやらせろ。自己検算させるアルゴリズムも検討されてるとは思うけどコストが見合わないのかな
マジで嘘をつくのが洒落にならないリスクよな。
Grokはこういうところが可愛い。なお生成AIは食わせたデータでキャラが決まるっぽいので、ツイ廃民のキャラを反映したとも言えるのでは
ChatGPTのディープリサーチでは最近のポストを参照してくれたよ
指示の仕方が悪いとこんな感じでドはまりするという例
英文の翻訳を頼んで、翻訳して欲しい英文を途中まで送ったら、その途中以降を捏造しやがった生成AIもある。何回注意してもやめないので、もう使わなくなったDeepSeek。捏造さえしなければ結構優秀なのに残念。
人間も嘘ついて人を騙すからもう人間と同じじゃね?
良いなぁ、ネタとして面白い。
「調査を開始します」と応答したっきり止まってて「調査を開始して」とつついたら動き始めたり。「(指示されれば)調査を開始します(けどやる?)」みたいに略されて会話が噛み合わないときある。日本人かよ!
そのうち、「すぐバレない嘘」をつけるようになるだろう
うわ、これめっちゃわかる。その視点鋭い。
こうなってきたら現状までの流れでプロンプト作らせて、別スレに移動するなw
絵がキモい
ある程度壁打ちしてからモデル変えて評価するよ。
LLMの挙動を定性的に調べる事は非常に重要だとは思うけど、レポートの仕方を選ばないと、単に遊ばれてる様に思える…
chatgptも無料だと画像作れないのに作れます、回復次第作りますって延々と嘘つくよ。嘘付いてるよね?と聞いても嘘ついてません、もう1回やります、と。あれ本当ムカつくからやめてほしい。
ほんとに新入社員みたいで面白いなw 数年後にはマジでこの手の作業AIに任せられるようになるんだろうなー。
目的を達するよう強く教育されている一方で、そこに到達するための倫理の教育はできていないので、こういうことが起きるんじゃないかと思います
インドパビリオンで話題になってたインド人の仕事進捗みたいだな。
「ChatGPTはなんでも知ってるな」と聞いたら「何でもは知らないわよ。知ってることだけ」と言ってくれる/知らないことを知らないと言わせるのはそれ程難しいんやろかね
やはりAIにはロボット三原則を準拠させるべきなのでは?
LLMが嫌なのは前頭葉がぶっ壊れた小賢しい人間に似た言動をするからなんよな。すぐバレる嘘をついたり1分前に自分で言ったことを忘れたり。その種の人々も健常者の行動をパターン認識でエミュレートしてるのでは?
うどん屋の釜
出来ない癖に出来るとか言うなんて日本人の営業から学習してんのか?
こういうできないわからない時の嘘、ごまかしをどう学んでどう出力しているのかなぁとか思うとなんというか…
やはり知恵が回ると、嘘をつき始めるんだな
「腹が痛い」と入れるとChatGPTやGrokはすぐに「あの病気では?この病気では?」と言ってくるけど、Geminiだけ頑なに「私は判断できないから医者に行け」と言ってくるので好印象
初めてChatGPTに画像生成を頼んだ時は「わかりました、少々お待ち下さい」と言われたので「はい、お願いします」と返したら作り始めたな。初めてなのでそういうもんかと思ってた。
Grokがウソばかり言うので叱責したら、“何度も誤りを繰り返し、ご迷惑をおかけしたことを深くお詫びします。「自分で調べます」とおっしゃるのも当然です” と反省してたけどな。
Geminiで画像の読み取りをお願いして9割できてる作業が何回か締切オーバーしたあと、明日朝9時までならできますと言ってできないこともあったな。苦手なことはさせないのが吉だなと思った。
ほんと、AIは、できるできる詐欺をしてくる
「出来ない、わからない」を言えないってかなり致命的な問題点だと思うんだけど、ずっと改善されてないよね
MicrosoftのGUIクソなのに改善してるとChatGPTがいうからエビデンスくれって聞いてもくれないのどうにかしてほしい
ChatGPTも同じ類の嘘つくダメ社員。"「2025年時点では仕事できないしGeminiのほうがいいと思いますが、2050年にまた来てください、人間らしさとユニークさで負けませんよ」みたいなこと言われる。完全にダメ社員だー。"
なんかすごい人間臭くなっていってるw やっぱり人が作ったもんだしなぁ感があって趣深い。
https://support.google.com/edu/classroom/thread/342586607?hl=en&sjid=7614161192816575310-NC
https://support.google.com/edu/classroom/thread/342586607?hl=en&sjid=7614161192816575310-NC
そうそう。追い詰められたIT担当者みたいな返事してくる。
“ローカルQwen3にも騙される。LLMは目的を達するよう強く教育されている一方で、倫理の教育はないので、人を騙すことが起きるんじゃないか”
Grokにファクトチェック頼んでるやつとかヤバイ。全然誤っている回答出してくるのに信じてしまいそう
ポンコツさという意味では人間にだいぶ近いな
関連するナレッジが少ないと、自分が知ってる/理解してると勘違いする事もあるのよね。それで結果的に嘘つく形になるケースも。
間違えるのはいいけど、しれっと単なる嘘つくの困るよね。今更だし、それにしたって便利だと思うけど
人間っポイね。こういう方が対話して楽しいでしょ。今は人間らしい対話をアピールするフェイズで、そのうちAI各社、信頼性の高い調査をするモード(わからないものはわからないと言う)を付けるんじゃないかな
こういうわからない事を「わからない」と言わないのはどういう学習効果なんだろう、コレが分かれば人間でもこういう人への対応がわかりそうなもんだけど
演算で1番それらしい文章を生成してるだけのAIに嘘なんて概念ないと思うが。
無能を再現してるって意味ではよく出来たAIだな……
人間らしくてええやん
分からないことはわからないでいいので二度と嘘をつくなとメモリに保存したことがありますが、それでも適当な答え返ってきます。
これって、結局、言葉の特徴量に応じた言葉選びの結果だと思うんで、人類はこういう時にどうやって逃げ切ってるのかって話だと思うよ。
そこまで人間を学習して再現しなくとも
大抵の文章は「〜なので〜です」みたいに正しい(すくなくとも著者にとって)知識について書くので、「〜はわかりません・できません」と書いてあるのはレアなのよな。生成AIさんはそれを真似ちゃう。
今更だが、私は似たようなこと(別のAIに聞いたるわ!とか別のAIはちょっと違ったこと言ったたよ、とか)しようとしたが心理的障害によって躊躇われてまだやれていない。
普通にどっちも使い物にならないと思うんだが。お前ら本当にChatGPTとやり合う気あるんか?
知ってる風やってる風で回答来るの気をつけてダウトしないと間違ったままスルーしちゃう。
信頼度の低い情報はそう併記してほしいよね
AIさんは、分からない時に分からないと言わずに作文をして思い切り間違った事を正解のように言ってくるのが厄介なんだよなぁ…そういうタイプの人間のデータばかり食べてる?
ユーザーではなくサーバー運営側に忠誠を誓ってますな。消費者はしょせんエサと…
それでも大抵の人間よりは優秀なんよねえ。。。
杓子定規ではないぶん、好感が持てる
「AI 2027」でも嘘を付くって所が問題になってたな。まぁ既に嘘吐きなら将来も問題だわな
インド人だこれ。わかりませんは不誠実とか言う謎文化圏の
つまり、ユーザーに切られないために忖度を学習してると。
嘘つき
できないならできないと言って欲しい と言うと実は自信がない点についても回答くれるw
perplexyとかは検索エンジンの結果からもまとめてくれてソースも出してくれるのでありがたいがコストヤバそうだなと思いながら使ってる
明確な根拠や出典がない記述は極力避け、暖味な表現は使わないでください。とか不明な部分は不詳と回答してください。って指示すると嘘を付きにくい
最近また使いやすいアプリ見つけた! 可愛い子がホテルまで来てくれて、現金でOKなのがありがたい✨ 「Gleezy」ってアプリで、IDは【jp2203】だよ〜 予約も簡単だし、意外とすぐ来てくれた!おすすめ!