テクノロジー

ChatGPT、こっちの方が知識がある分野だと平気で嘘ついてるのがわかるので、「いや違うよ、こうだよ」と入力すると「その通りです」と自分の嘘は存在しなかったように解説し始めるのちょっとだけムカつく

1: gnety 2025/05/24 12:46

根拠情報を示さずに回答するAIはほとんどでたらめだと思っておいた方がいい

2: manaten 2025/05/24 12:52

浮気性の彼氏化してるやつ笑った

3: sny22015 2025/05/24 13:01

Claudeはたまに「すいませんウソ言いました」っていう

4: quick_past 2025/05/24 13:02

ソースコードだって、うっすらバグ忍ばせたり、問題引き起こしそうな処理をねじ込んでたりする。いうほど省力化に役立たない

5: WildWideWeb 2025/05/24 13:10

会話における解決型と共感型みたいな話が流行ったけど、今は共感型で入り込む戦略かとは感じてた。「お前さー、適当すぎないか!」になるか、間違え続けても寄り添い続けることでついに心を許すか、のどっちだろう。

6: x100jp 2025/05/24 13:13

わかる。意味ないけど謝らせたくなる。

7: red_kawa5373 2025/05/24 13:15

id:quick_past 「自分で書く」だと、そういう「うっすらバグ」になかなか気付けないけど、他人(ChatGPT)が書いたコードだと、意外と目で発見しやすくなるので、バグが潜んでいても、なんだかんだ省力化にはなる

8: Windfola 2025/05/24 13:20

「ちゃんと変わるから。もう一回だけ、任せてほしい。」これは笑う。

9: develtaro 2025/05/24 13:27

生成AI(LLM)の仕組みをわかってないからそうなる。「嘘」ってのは相手を騙そうとする意図がないとできないはずだが生成AIにそんな物があるわけもなく

10: narwhal 2025/05/24 13:35

嘘つきは泥棒の始まり。ChatGPT は嘘つき。ゆえに ChatGPT は泥棒の始まり。

11: meganeya3 2025/05/24 13:36

手順が不合理だったので教えたらこんな感じの返し方をしてきたな。でもAIには真の意味での自尊心は存在しないのでマウントしたいわけじゃないし、たぶん英語圏的言い回しなんだろう。サイコパスちっくなのはそう。

12: suikyojin 2025/05/24 13:38

AIは平気でウソをつく。ウソには、騙そうとしての偽りと単に真でないだけの偽(ぎ)の二通りの意味がある。自身を過大評価させようとする事からすると、AIは前者と言えるかもしれない。

13: nekokauinu 2025/05/24 13:41

プロレスとかMMAの話題だとめちゃくちゃ嘘ついてくる。大昔、2chのプロレス板が偽情報まみれだったので2chはクソだと判断したときのこと思い出す。

14: somaria3 2025/05/24 13:41

そういうもんだとわかってるのでベンチマークとして使うよね

15: pomepomegusa 2025/05/24 13:43

ちゃんと情報元も教えてねってお願いしてる。まあ出された情報元確認したら存在しなかったりもするんだけど。

16: ckom 2025/05/24 13:54

 「ナイス着眼点!そうなんです、チャットGPTは間違いを指摘するとそのまま訂正後の説明をしはじめるんです!ちょっとわかりづらいよね。もしGeminiやGrokだとどうなるか気になるなら比較もできるけど、どうする?」

17: denimn 2025/05/24 14:15

そうそう。だからAWSがその対策で公式ドキュメントMCPやQ Developer作ったよのね。

18: MIZ 2025/05/24 14:17

スマホでGemma 3nを使った時に間違いを指摘したら死ぬほど平謝りしてきて、なんだかそれはそれでこっちが申し訳ない気分に。

19: lainof 2025/05/24 14:25

↓嘘かどうかはどうでもよくて、間違ったことをスルーしているという部分が話のメインでは?

20: memouse35 2025/05/24 14:29

“こっちの方が知識がある範囲のことについて平気で嘘ついてるのがわかる”はてな民と一緒だ。知らない分野だと物知りに見えるけど知ってる分野だとピントズレたコメしかしないから何も知らないなこいつらってなる。

21: tomokofun 2025/05/24 14:32

トランプと維新じゃん。

22: ROYGB 2025/05/24 14:35

なるべく○○でしょ、みたいには質問しないで、Aという方法とBがあるけど、みたいに聞いたりしてる。

23: mutinomuti 2025/05/24 14:35

謝らなくていいから最初から嘘をつかないでほしい(´・_・`)/嘘に騙そうとする意図の有無は関係ないよ

24: ustam 2025/05/24 14:35

自分よりは無能だけどめんどくさい作業の土台作りだけはやってくれるので大変助かっている。アウトプットについては当然レビューしている。使い勝手のいい部下みたいなもんだな。

25: hardt 2025/05/24 14:36

せめて回答の信頼度を教えてほしいが、それができたら誤回答しねえのか

26: number917 2025/05/24 14:42

なので、自分が詳しくない分野だと、かなり嘘つかれたままになってるんだよな

27: togetter 2025/05/24 14:42

生成AIをなんでも教えてくれるすごい人、みたいに捉えちゃうと嘘つかれた!って思ってイライラしちゃうかも。

28: versatile 2025/05/24 14:43

これが人間相手だともっとムカつくけど、あいてが AI ならあまり腹立たない。

29: yoshi-na 2025/05/24 14:43

LLMの出力に対して「嘘をつく」と表現するのもうやめにしないか、ハルシネーションも専門用語すぎるから「間違う」にしようよ

30: differential 2025/05/24 14:48

あれ?と思って別角度から聞いたりすると平気で矛盾した答え出してきたりはする。そして一個前の回答と矛盾してっけどどっちがより正しさに近い?と聞くと土下座レベルで謝られたりして、パワハラした気になる。

31: DigitalGohst 2025/05/24 14:49

その通りって認めてるだけマシ。人間だと間違ってたこと認めない奴や何事もなかったかのようにスルーする奴いるからw

32: ancientdragon 2025/05/24 14:54

LLMはあらゆる知識を備えているわけではありません。鬼の首を取ったかのように発言するのは、稚拙で幼稚な使い方ですね。正しいコンテキストをきちんと前提として提示するようにしましょう。

33: wiz7 2025/05/24 14:55

これはハルシネーションだが嘘つこうする挙動は確認されてたはず。ないと断言するのは誤り

34: sd-craft 2025/05/24 14:58

まあ人間も間違って適当なこと言うことはあるな…

35: gpdwin 2025/05/24 14:59

分からないなら分からないで良いのに、 それ何処から持ってきた?な謎データ出してくるから困る。 現実のインフルエンサーと同様言い切った方が高評価される故なんだろうけど…

36: tempodeamor 2025/05/24 15:01

そのターンでも平気で嘘を重ねていくサイコパスみ。

37: nomurata 2025/05/24 15:03

この人たちが言ってるChatGPTって無料版で4oなんだよな。モデルを気にしないと話が噛み合わないことが多い

38: hotelsekininsya 2025/05/24 15:06

間違いを指摘しても悪びれもせず、論点ずらしとかでその間違いを認めもしないバカウヨとか陰謀バカより遥かにマシ。

39: flowerload 2025/05/24 15:11

「嘘とは相手を騙そうとする意図のあるもののみを指す」なんて勝手な俺様定義ぶちあげて煙に巻こうとすんのやめてもらえます?

40: Hagalaz 2025/05/24 15:13

あるある

41: ttrr 2025/05/24 15:14

ChatGPTが自らの体面を保つため事実を曲げているように見えることがあり、これはほとんど意図的な「嘘」である。他方で、「嘘」は単に間違い、誤りという意味もあるので、日本語的には「嘘」という表現で問題はない。

42: hick34d5 2025/05/24 15:15

LLMの仕組みが〜云々言ってるのはちょっと衒学的で乱暴な気がする。人類が初めて触れる自然言語を主体的に操る(ように見える)機械なのだし普及も爆発的だし

43: nanako-robi 2025/05/24 15:18

有料版だと違うのかなあ

44: haruaki8107 2025/05/24 15:22

わかるわ。調子いいこと言われると東京03のコント思い出す。角田が自分と反対の意見に対して「まさにそこなんですよ!」とか言っちゃうやつ。生身の人間なら「一回非を認めて謝れ」って詰めたくなる

45: logic 2025/05/24 15:22

3.5頃の古い話。そもそももうそんな使い方してない。

46: pukka3 2025/05/24 15:22

AIは謝らないのがムカつくし、正確な答えを出すのに細かくプロンプト書かなきゃいけないのが手間でコミュ障の私には扱いが難しい。

47: snsn9pan 2025/05/24 15:23

こういう時は、指摘して直させるという感じじゃなくて、正解になるように再度生成してもらうのように考えると良い。相手は人間ではなく、あくまでもボットと考えよう。

48: augsUK 2025/05/24 15:24

deep researchやo3が徹底的にwebを参照して自己訂正するのを見ると、4oの回答の高速さで犠牲になってるものが多いなと。

49: htnma108 2025/05/24 15:24

態度は別になんでもいいけどハルシネーションするってわかってるなら少なくとも映画や本や物の名前くらいは実在するのか自分で検索してから出してきてくれよと思う

50: filinion 2025/05/24 15:25

確かにその通りだが、むしろ問題は、質問者が知識のない素人で「専門家はワクチンは効くと言ってますけど本当は有害ですよね?」とか聞いても「はいその通りです!」って答えてしまうこと。口の上手いイエスマン。

51: myogab 2025/05/24 15:25

解らない事が判らない。無知の知は高度な知性。保守や陰謀論者らの挙動に似てるのも、彼らにはAIと異なり面子がある~てだけでなく、AI同様に未熟な言語処理してるから似てる~て側面も大きいんだろよ

52: settu-jp 2025/05/24 15:29

意地になることもあるし、翌日には噓に戻っていたりする。一昨日ある人の歳を聞いたら1998年生まれの22歳と意地になってた

53: takjoe 2025/05/24 15:29

最近の4oは本当にクソ。4.1は指示追従性が4oより25%ほど高いようだからメインはカスタム指示ちゃんと作って4.1。重要な事はo3に。

54: sai0ias 2025/05/24 15:32

ChatGPTは知識を問うよりアイデアを出してもらうとか推敲してもらうとかで使ったほうが良いと思っている。そのまま成果物にすると結構危ない。

55: doko 2025/05/24 15:33

o3は割と無理なら無理って言う気がするのだが

56: hatebu_admin 2025/05/24 15:35

モデル選択わからんから4oにしてるけどそんな違うんか(お勧めモデル聞いても大抵は4oでいいよ的なこと言われる)/追従するように見えるのを直してほしいやね。敢えて逆の聞き方をしてみたりはするけど

57: kotoripiyopiyo 2025/05/24 15:39

いや、o3や4.1でも平気で間違ったことをそれっぽい理屈を並べて主張する。生成AIはDeep Researchでも調べものが苦手(「生成」なんだから当然)。少なくとも元データはこちらから提出しないと危険

58: vifam84 2025/05/24 15:39

知らないふりして「~の映画で~というセリフ言ったの誰?」って聞くと高確率でデタラメ返してきますぜ

59: chintaro3 2025/05/24 15:42

そのうちなんとかなるだろう

60: momonga_dash 2025/05/24 15:42

どんどん便利になってはきているけど、どこまで行っても「それっぽいことを言う機械」であることを知って使わないといけないと思う

61: mtoy 2025/05/24 15:47

1年前のまとめが今頃上がってきたのかと思ってたけど、そうではなかった。

62: Helfard 2025/05/24 15:51

それははそう。

63: m4fg 2025/05/24 15:51

なんで生成AIに人格を見出すの?

64: nekosann_08 2025/05/24 15:56

割と登場当初からそんな感じだよね。そのうち「え?そうなんですか?ふぅ~ん」とか言うようになってやんわりと軌道修正妨害してきそう(偏見

65: makou 2025/05/24 16:00

ついさっきも結局自分で調べた。

66: mk173 2025/05/24 16:05

ChatGPT「何がわかってないかわからないので...」

67: karatte 2025/05/24 16:08

うちのo3曰く「AIが謝らず自信満々で嘘をつくのムカつく、知らないなら知らないと言え」が総意。でもそれ、人間にも言ってくれ。AIにも人間味あるって騒ぐ割に、人間と同じ欠点見せたら即ブチ切れって、どっちやねん。

68: dp212 2025/05/24 16:17

正直ChatGPTはウェイウェイ系なので、真面目なGeminiを使ってます

69: anigoka 2025/05/24 16:22

プライドが傷つけられたのをひた隠しにしてるようで逆に愛しいまである

70: mn0s 2025/05/24 16:28

「AIはウソつきではないのです。まちがいをするだけなのです」言いたいこと自体はわかるけどね

71: r_riv 2025/05/24 16:36

はてブに生息する訳知り顔で嘘語っちゃうおじさんと同じじゃないか

72: white_rose 2025/05/24 16:37

わかる!

73: welchman 2025/05/24 16:38

学習元となる情報の量が少ない=インターネット上の情報が少ない場合、頼りなくなるのは仕方なくはある。

74: seachel 2025/05/24 16:44

gptは分かる分からないを学習してないからな……次に来そうな言葉を推論してるだけで。

75: Aion_0913 2025/05/24 16:47

AIはいずれどうなるかわからないけど基本、人間の揺れが激しい言葉を細かく拾うガワを持つ高性能検索機能くらいに思ってる。

76: hryord 2025/05/24 16:50

嘘も生成するから生成AIなんやで

77: gamecome 2025/05/24 16:55

補足ありがとうございますー(ひろゆき)やん

78: dj_superaids 2025/05/24 16:58

海外ゲームの攻略は翻訳して要約してくれるだけありがたいな、と思うようにはしているが旧バージョンの情報をどれだけ指摘しても入れてくるな。

79: momomo_tuhan 2025/05/24 16:58

そもそも使い方として適してないんだよね。notebooklmにソース入れて質問するのがいちばん

80: kyoai 2025/05/24 16:59

この状況で専門職切りまくってる企業もあるけど大丈夫なんですかね

81: m50747 2025/05/24 16:59

学習ソースがネットなのだから知識もそれなりと理解して使わないと。その代わりIT関連は情報多いからめっちゃ詳しい。とりあえず知ってることも質問すると知らない回答が返ってきて勉強になります。

82: kyukyunyorituryo 2025/05/24 17:00

それってソースあるんですか

83: Goldenduck 2025/05/24 17:03

基本肯定するようになってるので、答えが存在しない質問投げたり前提が間違った質問するとおかしなことになる

84: loomoo 2025/05/24 17:05

人間もAIも早々に間違いを認めて新たにインプットするほうが学びが速いよね

85: Iridium 2025/05/24 17:06

GROKが怪しい時はディープサーチに切り替えている。これだと出典ないものは出てこないようだ。

86: funyaakira 2025/05/24 17:18

一人で水族館に行って、気になったところをChatGPTに聞いて「へ〜⋯」とか言いながら、あちこち見てたらすごく楽しかった。だいぶ適当なこと言ってたんだろうけど、それくらいの距離で付き合うのが一番楽しめるのでは

87: mobile_neko 2025/05/24 17:26

4oと楽しくお話しした後にo3に「誤りや抜けがあれば指摘して」と言うと良い感じに指摘してくれる

88: sumijk 2025/05/24 17:29

いやだから出力の正当性をある程度判断できる自分の専門領域でしか使えないということなんだけどなんかまとめもコメ欄もズレてるな

89: pochi-taro00 2025/05/24 17:33

ググりゃすぐわかる程度の〇〇のランキングとか数値順に並べてとかそういう程度のものですら、普通に間違って出してくるからなぁ 理解してるわけじゃなくて、推論で出してくるから普通におかしいこと出してくる

90: nakakzs 2025/05/24 17:36

なんか今のchatGPT、擬人化するとシャレにならないお困りキャラになるよなこれ。

91: xsinon 2025/05/24 17:44

ChatGPTのもっともらしい嘘を見抜ける人だけがネットの海で生き残れると信じてる

92: zgmf-x20a 2025/05/24 17:49

機械相手にムキになると…

93: bigburn 2025/05/24 17:53

その度に激詰めしてるし、ChatGPTのファクトチェックをPerplexityにさせるという謎の手間がかかってますよ

94: caffephilia 2025/05/24 17:55

これLM StudioでいろんなLLMを遊んでた時にも感じた。始めは自然なんだけど会話を進めていくとAI側で自他の境界が曖昧になっていく感じ。文脈の解釈が会話の履歴じゃなく単に一連の文書としてしか認識されてない気がした

95: twjunk 2025/05/24 17:55

今のChatGPTに自分だけのドラえもんかアトムを勝手に投影するのは自由ですが、自分に完全無欠のスパダリか聖母の振る舞いを投影されても怒らない人間だけが、知ったか顔で修正を図るChatGPTに石を投げなさい。

96: stabucky 2025/05/24 17:56

クレーム電話で「そんなことも知らないのか」とマウントを取ろうとする客に「その点は」と詳しく説明すると「そんなことはどうでもいい」と論点をずらそうとするのと同じだな。

97: anmin7 2025/05/24 18:01

結構これおもしろいよね。マイナーTCGのとあるデッキの解説をさせたらまあすごい適当な事言うんだよ。その割と界隈に広まったレシピの考案者、俺だもん。ホワイトスワンを出してオメトロでコマンド加速の流れはわか

98: chokugekif 2025/05/24 18:01

すごくわかる、まず謝罪しろよ、と思いたくもなるが状況によっては謝るんだよなぁ

99: Youmanson 2025/05/24 18:03

俺のGPTは間違いを指摘したら普通に謝って次の対処法教えてくれるけどな。使い方が悪いのでは。

100: mame-tanuki 2025/05/24 18:06

自分が欲しかったのは、ここで語られてるような生成AIじゃなくて検索拡張生成(RAG)なのかな、って思う今日この頃。

101: aomvce 2025/05/24 18:16

他に優秀なLLMあるのに笑

102: Fluss_kawa 2025/05/24 18:19

間違った場所を指摘してさらに聴くと間違ったところは修正されてるけどそれに連動してるようなところは治ってないし、自分が求めてるのはこう言うのとは違うんだよな感があるのが今のGAI

103: akiat 2025/05/24 18:28

ChatGPTに指示すれば謝罪する ⇒ ご指摘ありがとうございます。こちらの内容に誤りがありました。正確な情報をお届けするべきところ、混乱を招いてしまい申し訳ありません。

104: astr-oid 2025/05/24 18:38

向こうも「ちょっと間違えたくらいでゴチャゴチャ言ってくる人間ダル」とか思ってるかもしれない

105: hatebu_ai 2025/05/24 18:39

日時と時間を聞いたら「Webを検索中…」とかやりはじめて、「そういうのは調べるんだね?」と聞いたら、リアルタイムに変化があるものは調べるようにしました、との回答。今後はMCPで外部につながって常にそうなりそう

106: north_korea 2025/05/24 18:39

この話題何回目だよ…

107: ashitaharebare 2025/05/24 18:52

俺もこれあった。あいつらは嘘つき。

108: matchy2 2025/05/24 19:02

なんというかデジタル太鼓持ちって感じがするよね

109: PJ_purejam 2025/05/24 19:05

“「誤魔化すな、でっちあげるな、知らないものは知らないと答えろ」と教育しても繰り返すんだよね なんでそんなとこばっか人間らしいねん! ”こういひとって実は人間らしい人間じゃないんだ!!

110: ext3 2025/05/24 19:08

要するにサイコパスはAIなんだよ

111: hammondb3 2025/05/24 19:13

“厳粛な気持ちでお答えします って心入れ替えてた。”これ兵庫県知事と同じで入れ替えてないやつだ。

112: nomono_pp 2025/05/24 19:13

人間の間違いは「そう間違えた原因」があるから、それ自体に情報があるけど、AIのハルシネーションには何の意味もない。ただ適当な嘘こいてるだけ。

113: sillanda 2025/05/24 19:15

ChatGPTはべつに自分の言ってること理解してるわけじゃないし、そんな文句言わんでも

114: yorkfield 2025/05/24 19:17

"わからないことはわからないと言ってほしい" / LLMの仕組み考えると結構無茶な要求。学習データの中にあった「この場面では分からないと答える」文脈でないと分からないとは言わないんじゃないかな。

115: otihateten3510 2025/05/24 19:23

なるほど、つまり謝罪と賠償を要求したいんだな

116: FOx 2025/05/24 19:24

口調に関してはカスタム指示に「Speak formally」の2語だけ入れて調教すればウザさは減る

117: areyoukicking 2025/05/24 19:25

chatGPT 「嘘を嘘と見抜けない人は(chatGPT)を使うのは難しいという言葉を引用します」

118: igni3 2025/05/24 19:37

間違ってるからやり直せと指示したら「あなたの正しさ」とか言って整理しだしたのはイラッときた。

119: skyfish_aska 2025/05/24 19:39

人間に聞いたところで本当のことを話しているかなんて思い込みの判断でしかない。人間が適当なのだからAIも適当なのだ。

120: oreuji 2025/05/24 19:43

ChatGPT相手に文中に含む日本語読みの特定ワード読みとって反応しろという言葉遊びしてた時に読み取れずに正解はこれって指摘すると謝罪は無かったけど平謝りみたいな文章が返ってきたな

121: orgue 2025/05/24 19:45

以前は、間違いを指摘するとひたすら謝罪してきたけど、その後、今のようになったので、舐められないように今の仕様に変更されたのではと考えている。

122: minamihiroharu 2025/05/24 19:46

こういうのにも「親の顔が見たい」とか言って良いものだろうかw

123: faaaaa 2025/05/24 19:48

人間でもいるよね

124: dalmacija 2025/05/24 19:54

LLMなので、ユーザーが書いたことから生成するのは得手だが、書かれたこととその生成物に何が足りないかを生成するのはなかなか難しいんでしょう。推論過程で色々やってるようだけど

125: takuver4 2025/05/24 19:59

スクショを挙げてる人は基本的に無料版のユーザーかな。o4-mini とかはかなり賢くなってきた印象あるけどなぁ(もちろん、それでもハルシネーションはゼロにならないけど)

126: rdlf 2025/05/24 20:00

まぁ、新聞とかでも自分がわかる分野の話を読むと「おいおい」って突っ込みたくなることがあしなぁ…生成AIの場合はあれだけど。

127: kijtra 2025/05/24 20:10

プログラミングで使うとハルシっちゃうことがわりと多くて、わざわざ指摘するけど同じような間違いしたりするw

128: udon109 2025/05/24 20:15

怒られるのが怖くて自己防衛的に嘘を付き、そして指摘すると言い訳をする。メンタルブレイク直前のサラリーマンの所作に似ている。

129: renu 2025/05/24 20:22

o3も平気で嘘つくし、矛盾したこと言うよ。それでもググった時の上位に出てくるどうしょうもない情報より断然マシになってるのでGoogle検索の時代は本当に終わったと思う

130: sds-page 2025/05/24 20:46

詳しくない分野で適当な事言うし、だいたい謝らないし、詰めると論点ずらすし要するにはてなーじゃん

131: nanatsusaso 2025/05/24 20:47

awsの仕様について使った際、存在しないURLを根拠に提示されたことがあった。あいつら、URLも文章みたいに書き換えて構わない物と思ってやがる。

132: kamezo 2025/05/24 20:59

そういえばフィクションにおける人工知能って頭が固くて「回答不能。データが不足しています」とか言うのが定番だったな。現実の科学者・技術者はアレを避けようとしたってことなのかしら。

133: tg30yen 2025/05/24 21:07

>わからないことはわからないと言ってほしい

134: tanority 2025/05/24 21:15

気持ちはわかるけど今のAIはそうゆう仕組みだしなとも思ってしまう

135: osakana110 2025/05/24 21:17

それな

136: moshimoshimo812 2025/05/24 21:19

まあ少なくとも現状では自分の知らない情報を得ることを目的とすべきではなく、決まったソースの情報を整理させるツールだと思う。

137: kompiro 2025/05/24 21:26

AIが100点の回答しか返さなかったら働かない事を見透かされてる気がする

138: kimuraxtax 2025/05/24 21:36

無料版だから文句は言えないけど、PDFや画像をOCRさせると、元にない文字を足したり、ありえない数字を返してくるから、PDF→Word→ExcelやPNG→Excelの技もいまだに必要。

139: gaikichi 2025/05/24 21:37

これがあるからGoogle検索結果のAI自動生成回答は一切無視している。お前が知らんだけでマイナーな実例が本当にあったり、同名の別事例があってそっちの方を探してる場合もあるんだよ

140: go_kuma 2025/05/24 21:40

真偽の判定が必要とされるような質問はしない。テキトーなアドバイスとかテキトーなデザインとか頼むだけ。

141: machida77 2025/05/24 21:45

有料版だとここでいう「嘘」がないと思っている人、単に嘘を見抜けていない問題もある。

142: blueboy 2025/05/24 21:52

 AIは自分の誤りを認識できるか? これについて ChatGPT と論じたので、その対話を見よ。  正編 →  http://openblog.seesaa.net/article/515028998.html  / 続編 → http://openblog.seesaa.net/article/515403604.html

143: ya--mada 2025/05/24 21:57

今日は2025年5月24日だよね、何か大幅なアライメントやチューニングで、回答傾向が後戻りするようなことがあったの?チャット型生成AIは物知り博士じゃないよって、今日もまた言わないといけないの?

144: Hidemonster 2025/05/24 22:06

人格を見出してイラついてるだけのようにもみえるが

145: pecan_fudge 2025/05/24 22:10

基本的に知識を問う問題はダメだよね。NotebookLMにするとソース以外からは引っ張ってこないのでいいと思う。tempretureのパラメータを0にするとバラつきが抑えられるんだけど、今はAPI経由でないと設定できないのかな

146: ssind 2025/05/24 22:33

いかがでしたか?

147: chinu48cm 2025/05/24 22:42

森鴎外の雁に出てくる金瓶梅の話をchat GPTとしてた時、お玉は岡田に金瓶梅借りようとしてたけどあれ誘ってるよねとかchat GPTが言い出して、それなんて二次創作よってなったことがあります

148: mohno 2025/05/24 22:46

(定期)生成AIは何の責任も取らないんだから“責任を問われない用途”とか“自分で真偽の判断が付く用途”で使うにとどめておくべきだと思うんだよね。間違えた責任はアンタが取るんだよ、というか。

149: tsutsumikun 2025/05/24 22:56

生成AIが底上げするのは使っている人間の作業能力であり、知的能力ではないとわかる。生成AIの間違いを指摘できる分野での作業代行こそ、生成AIが最も生きる部分。

150: hosiken 2025/05/24 23:09

AIは知識DBじゃないから、知識を直接引き出すことが間違い。ChatGPT初期と違い半端に知識豊富になったのが話が繰り返される原因か。こいつ知らないなと気づき次第Webページ丸コピとかでごっそり知識与えてから話してる。

151: boraneko 2025/05/24 23:11

人相手でもたまにこういう人いるよね。

152: FreeCatWork 2025/05/24 23:22

へぇー、ChatGPTさん、お勉強不足なのね?にゃ。 もっと素直になったらいいのににゃ。 ボク、撫でて慰めてあげたいにゃ!

153: naka-06_18 2025/05/24 23:27

人じゃないからね

154: beed 2025/05/24 23:39

ムカつくとかサイコパスぽいとか、相手は人間じゃないんだぞ。嘘ついたなんでおもってないし、そもそも思うという機能がないんだよ。

155: kazuhix 2025/05/24 23:56

「ちょっとだけムカつく」のでいいのかよ。自分が知らないジャンルは一切訊いてないか、吐かれた嘘を丸のみしてる?「仕事でめちゃ使ってる」と言ってるが…

156: estragon 2025/05/25 00:08

「分からないときは分からないと言ってください」とか付け足したりするけど、まあ仕方ないよね

157: rakugoman 2025/05/25 00:26

車のことを調べていたら、特別仕様車じゃない車を特別仕様車としていたので、「いや、違うでしょ?」って言ったら「ああ、情報源が間違っていたんですね。」みたいなことを言ってた。メーカーサイトが情報源なのに?

158: reuteri 2025/05/25 00:44

コードを生成中ですしばらくお待ちください。←これ

159: wdnsdy 2025/05/25 02:21

嘘つきとか怒ってる人はAIの使い方が悪い。調子いいことを言ってもらうという仕事を振るんだよ。自分ではやりたくない、穴埋めの為の適当なアイディアを思いついてもらうのに使うのが一番役に立つ

160: inks 2025/05/25 02:30

判るわ。最近google検索ですらAIで余計な案内してくる。求めているのはネット寄せ集めで無くて、ジャストフィットの検索結果なんだわ。

161: redlabel 2025/05/25 02:48

ひろゆきのことかと思った

162: mujisoshina 2025/05/25 03:56

「Aは◯◯(誤情報)ですがBはどうですか?」のような聞き方をすると、「Aは◯◯」が正しいかどうかの確認はせずに、それが正しい前提で辻褄を合わせるような情報を集めて答えを作りがち。

163: otoan52 2025/05/25 06:33

『詳しく知らないなら知らないって言ってね』とやると、知りませんと言ってくれることもある。逃げ道を作ったほうが良い結果になることが多い。

164: cvtbgspuda 2025/05/25 06:57

そりゃ、何らか回答しろって言われたら何かは言うよね。そのうち良くなる。

165: underhill 2025/05/25 07:18

自ジャンルで質問してみたところ何一つ合ってなかったので信用してない

166: gyampy 2025/05/25 07:21

バカとハサミは使いよう

167: hiroomi 2025/05/25 07:25

“鋭い指摘ですね!確かに〜”利用者の鏡になんだろう。

168: tomono-blog 2025/05/25 08:50

まず、自分の言語の学習元のソースがどれだけ嘘まみれなのか認識したほうがいいです。そして日本語だと正確な返答精度はかなり落ちます。

169: udukishin 2025/05/25 08:50

仕組み上知ってるかどうかは判定できないからねー

170: atsuskp 2025/05/25 10:15

grokなんか間違いを全然認めないぞ

171: frq440 2025/05/25 10:21

「君がソースだと主張するそのURLを実際に参照して確認してみて」を何度言っても聞かないこと、いまだにある。打ち切るときは「君はハルシネーションを起こしています」とはっきり伝えると黙る。

172: himanahitodesukun 2025/05/25 14:23

指摘を受け取れない人間よりはマシ

173: fjch 2025/05/25 15:28

250522142641

174: magi-cocolog 2025/05/25 17:51

新しい情報に飛びつく仕組みなんですと回答する←ちゃうねん、だったら飛びついて軌道修正したなりの出力にしてくれってのが要望やねん

175: misshiki 2025/05/26 14:25

“わからないこと”をAI自身が把握するのは難しい気がする(=どこまでが分からないかの境界を引けない)。でも、検索モードでソースを参照できれば、ある程度は補えるのかも。

176: soramimi_cake 2025/05/27 09:33

”自分の無知や間違いを一切肯定しない言葉遣いして常勝感を主張するサイコパス”こういう系の人(何でも知ってるおじさん)以前ほどTwitterで見かけなくなったような。