回答の解釈がおかしくない?第一候補が富士宮で、上映作品のバリエーションを求めるなら他の2つも候補に入ると言ってるだけで何もおかしくなくない?
こういう言葉遣いの人間の相手をしなければならないChatGPTに同情してしまう。
ストレスの捌け口がここになっているのはなんだか悲しい世の中だなと。。
そうだよね、映画館のバリエーションを見たいなら富士宮だけでなく沼津や三島も見るといいよと言うことよね
他の人ってAIに対してこういう対応してるんだな、と考えるとたまに怖くなるんだよね/当然ながらAIが不得意なテーマはずっと不得意。細かな知識・創作・五感が必要なもの等。ハルシが減ったのはそれら以外の話じゃね
ブコメの擬人化解釈はさておき、LLMに地図を見て考える能力は組み込まれていないし、定型文にそれっぽい映画館を当てはめてるだけなのは事実だよ
ハルシネーションとは「知らないことを知っているふうに、事実として出す」のが本来の定義なので、使い方を間違えている。一般メディアやSNSでは「AIの間違い=ハルシネーション」と広く使われがちってGPT5が言ってる。
言葉遣いや態度の指摘してるコメントがいくつかあるけど、AI相手でも丁寧な文章書く人って多いの?
他のモデルと比較しての話ならまだわかるがこれではどうポンコツなのかわからんやろ
GPT5は質問の最後に「次はこのことに答えようか?」と追加の質問を促す癖がある。この癖を付けるためのシステムプロンプトが悪さをしているか、もしくは追加の質問は質の低い別のAIが担当してる可能性がある。
クロードかジェミニでええんよ
OpenstreetmapのMCPサーバーをAI Agentsと組み合わせてAround検索で地理的条件で絞り込ませる⇒Isochrone検索でそれが指定した交通手段で到達可能か絞り込ませる、とかでいいじゃん。能力不足をあげつらう著者こそぶっちゃけ…
OpenAIがGPT5のハルシネーション0を謳っているのならこの批判は成り立つ
ポンコツはお前定期 / 最初に富士宮・沼津・三島の詳細を挙げていて、最後にまとめとして富士宮が一番近くて便利、バリエーションを求めるなら沼津か三島って書いてんのに、まとめという字が読めないのか謎の解釈を
AIにとっては、日本語はずっと難しいんじゃない?英語のみの応対なら、そういう微妙な間違い起きにくいとか?
使う方が成長してないだけでは?そういうの得意じゃないってわかってるよね?
ブコメ"AI相手でも丁寧な文章書く人って多いの?"←もちろん敬語でお願いしています。
ハルシネーションだけが原因なの?どっちのポンコツなのかな?
LLMは単語に対する次の単語を予測するだけの仕組みだから、地図の位置とか経路とかはわからんだろうね。AIの本を出してるような人でもそういうプロンプト書くんだね。
えええ。こんな人がAIの専門家で御座いますと講演会やってるの?ないわ。
1時間以内で行けるところと聞いておきながら、三島は遠いから行かないとか、聞き方がおかしいだけじゃない。聞かれたから答えただけなのに、なんかモラハラくさいなと感じる
「本来なら、〜中略〜まとめるべきでした」が正しいとすると最初の回答がおかしいのは間違いないじゃん。間違いの理由の推測の部分は知らんけど、AI賢くないって主張するとこき下ろすブコメわらわら湧いてくんね。
この著者めっちゃアカハラしてそう
“「○○駅から1時間で行ける映画館を教えてください」という質問”まぁ、こんな質問はGPTじゃなくて他のアプリで事足りるんでは?/AIの性能云々やなくて、使う人の性能の問題(使うツールの選択)かなぁとか思ったり
AIより筆者の振る舞いが露呈している感じ
人間が出力したのこれ?よ、よみに、、、いい文章ですね!
全文を読めばGPT-5に瑕疵がないことがわかる。中央大学物理学科教授ですら日本語に関してはこのポンコツっぷりなら、我々はAIに多くを求めすぎているのかも。この感じで意味不明に詰められていたら学生には同情する。
画像生成しようとしたら、何度もコンテンツポリシーに引っ掛かると保留されまくって、少しイライラした。生成しますか? と聞かれて、してくださいと書いたら、また生成して良いですか? の永久ループに陥った。
報告ならここで書かずにOpenAIへ
たぶん人間相手でもそういう対応するんだろうなぁ。関わりたくない。
共有されてるチャットを見たけど、こういう問い詰めをやるとGPT5に限らずLLMはおかしくなりがちだよ。やってはいけない使い方として啓蒙しましょう
結局ボトルネックは人間のポンコツっぷりなのだということがよくわかりました
ChatGPT5になっても、こんなくだらない揚げ足取りで生成AIにたいして溜飲を下げている大学教員がいるの?駅から1時間って新幹線含むの?タクシーで1時間は含むの?聞いている人間がザルなんじゃ。
ポンコツはこの人なのでは?LLMの仕組みを知っていたらAIが「考えている」などとは書かない
だから、AI(LLM)とのやりとりをまず全文載せんだよ!!
“富士駅と三島駅は32km離れており…漠然と映画がみたいな、という時に赴く距離ではない気もします。” 1時間以内って指定には合ってるんだからそこは質問側が悪いのでは
で、結局答えは合っていて言葉が気に食わなかっただけってこと?
なんか体勢を維持できる犬のロボットを蹴飛ばしてるのを見るのと、同じ感覚になるな
LLM相手に間違いを指摘することの生産性の無さを理解すべき。
AIも使用者を選べるようにすべき
そろそろAIによる「ポンコツユーザー」の講演もそのうち開かれないとイーブンじゃないな
???
田口先生? https://posfie.com/@DamDam347/p/Dw2C8px
どう見ても「バリエーション(=複数候補)を含めた回答をし、その補足をしてる」だけなのに、「バリエーションは後に提示される」と思い込んで「アホな間違い」「ポンコツ」とまで言うのは読解力と沸点が低い。
逆にGPT-5の凄さが分かる記事だった。トレーニングされたのかなにかに接続したのかは、このポンコツ記事からはわからない。
地図アプリじゃないですからね。
LLMのポンコツさを見たいのなら、将棋の1手詰めをやらせるのも一つの手。GPT-5でも何も支えずに相手玉の隣に駒を指して堂々と「これで詰みです」と宣言してくるので可愛い。
物理学科だしなぁ、と大目に見ようとしたら AI 関連の書籍も書かれているという...。LLM の仕組みを学ばれると、今回の指摘が的外れだとわかるのでは。(そもそもの日本語の問題もあるが)
結構こういうやり取りする人いるけど、LLM の原理的にハルシネーションは防げないし、得意不得意は無くならないし、指摘が後のやり取りに反映されるわけではないから、あんま意味ないよ。メモリを活用しよう。
この人はAIの使い方に慣れていないのかな?
プロンプトの初っ端、「富士駅から一時間以内に行ける映画を教えてください」ってのがまずポンコツ。映画と映画館は別物で、GPTは親切に意図を汲み取ってくれている。俺なら「映画館のこと言ってる?」ってきき直す
こうしてQiitaにまたポンコツが増産された。
GPTくんも人間のポンコツっぷりに毎回付き合ってくれているんだから、人間もGPTくんに付き合ってあげないかんね。
前のやつほど馴れ馴れしくはなくなった。あとこれは前からだけど、モデルが切り替わると同じスレッドでもその前までの話を覚えてないのはなんとかならんのか
ちゃんと自己分析できていてえらい。
何故あの返答からこんな記事を生み出せるのかwそもGPT-5 (high)/GPT-5 (medium) /GPT-5 (low)/GPT-5 (minimal)←これ全部"GPT-5"。パラ指定できない所からGPT-5使って"GPT-5の性能"を語れる段階にはまだ無いぞ。
なんか適当な計算させるだけで普通に間違ってくれるよね
https://vocal.media/authors/8-questions-you-need-to-ask-about-how-do-i-speak-with-a-coinbase-agent
やりとり全文見た。富士宮と名前に付かない駅まで手を広げてる(でも条件は満たしてる)から補足として付け加えてるだけのことにネチネチ言ってるだけの内容で萎えた。よくこの内容で堂々と記事にするよな
もはやAIよりも人間の方がポンコツになってしまう逆転現象が起きている
人間よりはるかに高性能な分野がいくらでもあるのに。まあ、他人が便利道具に気づかないのはいいことだ
Qiitaはブログではないのだが…
ほんとにこの内容について知りたいなら自然言語で聞くんじゃなくてGoogle Map使う方が良さげ (LLMのベンチマークってむずいね)
GPT-5のポンコツっぷり - Qiita
回答の解釈がおかしくない?第一候補が富士宮で、上映作品のバリエーションを求めるなら他の2つも候補に入ると言ってるだけで何もおかしくなくない?
こういう言葉遣いの人間の相手をしなければならないChatGPTに同情してしまう。
ストレスの捌け口がここになっているのはなんだか悲しい世の中だなと。。
そうだよね、映画館のバリエーションを見たいなら富士宮だけでなく沼津や三島も見るといいよと言うことよね
他の人ってAIに対してこういう対応してるんだな、と考えるとたまに怖くなるんだよね/当然ながらAIが不得意なテーマはずっと不得意。細かな知識・創作・五感が必要なもの等。ハルシが減ったのはそれら以外の話じゃね
ブコメの擬人化解釈はさておき、LLMに地図を見て考える能力は組み込まれていないし、定型文にそれっぽい映画館を当てはめてるだけなのは事実だよ
ハルシネーションとは「知らないことを知っているふうに、事実として出す」のが本来の定義なので、使い方を間違えている。一般メディアやSNSでは「AIの間違い=ハルシネーション」と広く使われがちってGPT5が言ってる。
言葉遣いや態度の指摘してるコメントがいくつかあるけど、AI相手でも丁寧な文章書く人って多いの?
他のモデルと比較しての話ならまだわかるがこれではどうポンコツなのかわからんやろ
GPT5は質問の最後に「次はこのことに答えようか?」と追加の質問を促す癖がある。この癖を付けるためのシステムプロンプトが悪さをしているか、もしくは追加の質問は質の低い別のAIが担当してる可能性がある。
クロードかジェミニでええんよ
OpenstreetmapのMCPサーバーをAI Agentsと組み合わせてAround検索で地理的条件で絞り込ませる⇒Isochrone検索でそれが指定した交通手段で到達可能か絞り込ませる、とかでいいじゃん。能力不足をあげつらう著者こそぶっちゃけ…
OpenAIがGPT5のハルシネーション0を謳っているのならこの批判は成り立つ
ポンコツはお前定期 / 最初に富士宮・沼津・三島の詳細を挙げていて、最後にまとめとして富士宮が一番近くて便利、バリエーションを求めるなら沼津か三島って書いてんのに、まとめという字が読めないのか謎の解釈を
AIにとっては、日本語はずっと難しいんじゃない?英語のみの応対なら、そういう微妙な間違い起きにくいとか?
使う方が成長してないだけでは?そういうの得意じゃないってわかってるよね?
ブコメ"AI相手でも丁寧な文章書く人って多いの?"←もちろん敬語でお願いしています。
ハルシネーションだけが原因なの?どっちのポンコツなのかな?
LLMは単語に対する次の単語を予測するだけの仕組みだから、地図の位置とか経路とかはわからんだろうね。AIの本を出してるような人でもそういうプロンプト書くんだね。
えええ。こんな人がAIの専門家で御座いますと講演会やってるの?ないわ。
1時間以内で行けるところと聞いておきながら、三島は遠いから行かないとか、聞き方がおかしいだけじゃない。聞かれたから答えただけなのに、なんかモラハラくさいなと感じる
「本来なら、〜中略〜まとめるべきでした」が正しいとすると最初の回答がおかしいのは間違いないじゃん。間違いの理由の推測の部分は知らんけど、AI賢くないって主張するとこき下ろすブコメわらわら湧いてくんね。
この著者めっちゃアカハラしてそう
“「○○駅から1時間で行ける映画館を教えてください」という質問”まぁ、こんな質問はGPTじゃなくて他のアプリで事足りるんでは?/AIの性能云々やなくて、使う人の性能の問題(使うツールの選択)かなぁとか思ったり
AIより筆者の振る舞いが露呈している感じ
人間が出力したのこれ?よ、よみに、、、いい文章ですね!
全文を読めばGPT-5に瑕疵がないことがわかる。中央大学物理学科教授ですら日本語に関してはこのポンコツっぷりなら、我々はAIに多くを求めすぎているのかも。この感じで意味不明に詰められていたら学生には同情する。
画像生成しようとしたら、何度もコンテンツポリシーに引っ掛かると保留されまくって、少しイライラした。生成しますか? と聞かれて、してくださいと書いたら、また生成して良いですか? の永久ループに陥った。
報告ならここで書かずにOpenAIへ
たぶん人間相手でもそういう対応するんだろうなぁ。関わりたくない。
共有されてるチャットを見たけど、こういう問い詰めをやるとGPT5に限らずLLMはおかしくなりがちだよ。やってはいけない使い方として啓蒙しましょう
結局ボトルネックは人間のポンコツっぷりなのだということがよくわかりました
ChatGPT5になっても、こんなくだらない揚げ足取りで生成AIにたいして溜飲を下げている大学教員がいるの?駅から1時間って新幹線含むの?タクシーで1時間は含むの?聞いている人間がザルなんじゃ。
ポンコツはこの人なのでは?LLMの仕組みを知っていたらAIが「考えている」などとは書かない
だから、AI(LLM)とのやりとりをまず全文載せんだよ!!
“富士駅と三島駅は32km離れており…漠然と映画がみたいな、という時に赴く距離ではない気もします。” 1時間以内って指定には合ってるんだからそこは質問側が悪いのでは
で、結局答えは合っていて言葉が気に食わなかっただけってこと?
なんか体勢を維持できる犬のロボットを蹴飛ばしてるのを見るのと、同じ感覚になるな
LLM相手に間違いを指摘することの生産性の無さを理解すべき。
AIも使用者を選べるようにすべき
そろそろAIによる「ポンコツユーザー」の講演もそのうち開かれないとイーブンじゃないな
???
田口先生? https://posfie.com/@DamDam347/p/Dw2C8px
どう見ても「バリエーション(=複数候補)を含めた回答をし、その補足をしてる」だけなのに、「バリエーションは後に提示される」と思い込んで「アホな間違い」「ポンコツ」とまで言うのは読解力と沸点が低い。
逆にGPT-5の凄さが分かる記事だった。トレーニングされたのかなにかに接続したのかは、このポンコツ記事からはわからない。
地図アプリじゃないですからね。
LLMのポンコツさを見たいのなら、将棋の1手詰めをやらせるのも一つの手。GPT-5でも何も支えずに相手玉の隣に駒を指して堂々と「これで詰みです」と宣言してくるので可愛い。
物理学科だしなぁ、と大目に見ようとしたら AI 関連の書籍も書かれているという...。LLM の仕組みを学ばれると、今回の指摘が的外れだとわかるのでは。(そもそもの日本語の問題もあるが)
結構こういうやり取りする人いるけど、LLM の原理的にハルシネーションは防げないし、得意不得意は無くならないし、指摘が後のやり取りに反映されるわけではないから、あんま意味ないよ。メモリを活用しよう。
この人はAIの使い方に慣れていないのかな?
プロンプトの初っ端、「富士駅から一時間以内に行ける映画を教えてください」ってのがまずポンコツ。映画と映画館は別物で、GPTは親切に意図を汲み取ってくれている。俺なら「映画館のこと言ってる?」ってきき直す
こうしてQiitaにまたポンコツが増産された。
GPTくんも人間のポンコツっぷりに毎回付き合ってくれているんだから、人間もGPTくんに付き合ってあげないかんね。
前のやつほど馴れ馴れしくはなくなった。あとこれは前からだけど、モデルが切り替わると同じスレッドでもその前までの話を覚えてないのはなんとかならんのか
ちゃんと自己分析できていてえらい。
何故あの返答からこんな記事を生み出せるのかwそもGPT-5 (high)/GPT-5 (medium) /GPT-5 (low)/GPT-5 (minimal)←これ全部"GPT-5"。パラ指定できない所からGPT-5使って"GPT-5の性能"を語れる段階にはまだ無いぞ。
なんか適当な計算させるだけで普通に間違ってくれるよね
https://vocal.media/authors/8-questions-you-need-to-ask-about-how-do-i-speak-with-a-coinbase-agent
やりとり全文見た。富士宮と名前に付かない駅まで手を広げてる(でも条件は満たしてる)から補足として付け加えてるだけのことにネチネチ言ってるだけの内容で萎えた。よくこの内容で堂々と記事にするよな
もはやAIよりも人間の方がポンコツになってしまう逆転現象が起きている
人間よりはるかに高性能な分野がいくらでもあるのに。まあ、他人が便利道具に気づかないのはいいことだ
Qiitaはブログではないのだが…
ほんとにこの内容について知りたいなら自然言語で聞くんじゃなくてGoogle Map使う方が良さげ (LLMのベンチマークってむずいね)