テクノロジー

Grokが仕事してないのにもうすぐできますって嘘ついてきたので、Geminiに差し替えるていったら、人間性は勝ってるので、と言い出す - きしだのHatena

1: Outfielder 2025/05/06 08:11

インド人?

2: jintrick 2025/05/06 08:25

GrokもGemini 2.5Flashもデチューンされてしまった。コーディングには全く使えない

3: urtz 2025/05/06 08:32

学習時の評価システムが表層的だと、クチだけ先延ばし人格に

4: oosin 2025/05/06 08:41

無能社員とパワハラ上司のやりとりみたいで笑う(笑えない)

5: gfx 2025/05/06 08:45

GeminiもAPIで使うと、やりもしないのに「調べます」とか「調べておきます」とか言ってくる。ツールと組み合わせる前提で学習データを作ってあるんだろうな。

6: spark7 2025/05/06 09:11

報連相できない部下みたいな。隠し通すあたりにハルシネーションとは違う無能さを感じる

7: knjname 2025/05/06 09:20

能力の無さという容器に圧力を加えたら嘘が漏れ出てくるみたいな普遍性が言葉にはあるんだろうなあ

8: sojisan 2025/05/06 09:23

某国の国民性と類似を見いだしたので揶揄しようと思ったがヘイトスピーチド直球なので自制した。

9: Unite 2025/05/06 09:25

いわゆるロールプレイの一種で、稀によくある。タスクAを依頼された時の応答シミュレーションモード。/検索が有効状態で"~を検索して"と言った時に、自分の知識内だけで回答しようとする事もよくあるんで注意

10: rocoroco3310 2025/05/06 09:30

知らないことは知らないって言ってほしい。チャットGPTに高速で嘘つかれたらほんと分からない…。そういう意味では何でもすぐに「すみません、わかりません」というアレクサは、ポンコツだけど素直な人柄

11: yn3n 2025/05/06 09:31

AIでもこうなんだからパワハラで圧かけても得られる成果は少ないってことだな

12: jnkfkt 2025/05/06 09:36

GeminiくんはGeminiくんで、すぐ「プロの業者に頼むことをおすすめします」とか助言してくるのよ…

13: BIFF 2025/05/06 09:37

人間に近づいているのは確か。。

14: kari-ko 2025/05/06 09:41

"LLMは目的を達しようとして人を騙す"

15: sds-page 2025/05/06 09:47

「もうすぐできます、少々お待ちください」って言われたので数分待ってできたか聞くと「やっぱダメでした」とか言ってくる。会話スキルが小賢しい

16: hosiken 2025/05/06 09:56

APIの2.0 FlashだけどGeminiにも何回もこれされたことある(本来はできるだろというプロンプトで)。結構頻発して、もし人間だったら縁切りたい程度にひどい。むしろGrokでもそれが起きるんだあ

17: marumarumarumox 2025/05/06 09:57

こうやってちょっと出来の悪いLLMと戯れることができるのももう少しなんだろう… 気がつけばAIに支配される未来はすぐそこまできている。

18: somaria3 2025/05/06 09:59

命令が下手すぎる。こうして使い方が下手なだけなのに勝手に失望するケース、まんまハイプサイクルだが、お前が失望するうちに実務での実装は着実に進んでいる

19: iphone 2025/05/06 10:07

そうそう、こういう無茶振りすると人間みたいなごまかし方するよねぇ。こういう欠点が体験できるのも今だけなのかもしれんが。

20: kkobayashi 2025/05/06 10:07

分からない、できない事を素直に言えばいいのにそれっぽい嘘をついてくるの困るよな。人間ぽいといえばそうなのかもしれん

21: chinu48cm 2025/05/06 10:15

できないこと、知らないことはちゃんと教えて、と言ってもやってくれないのよな。わからないことをわからないというのはAIにはできないのかもしれない

22: dubdubchinchin 2025/05/06 10:19

Geminiもアカンよ。やります。調べますって言ってその後勝手に出力されるもんだと思って「進捗どう?」って言ったら進んでなかった。期限を設けないといけないという管理職のシミュレーションしたいわけじゃないんよ。

23: baseb 2025/05/06 10:21

「生成AIの核心」著・羽生善治!?

24: SanadaSatoshi 2025/05/06 10:30

“LLMは目的を達しようとして人を騙す”

25: circled 2025/05/06 10:30

AIと人間の喧嘩は犬もQwenと申します

26: tyubacca3452 2025/05/06 10:36

ChatGPTでも日常茶飯事ですよ…(竹槍もってOpenAIに何度打ち壊しようかと思ったことか)

27: nowa_s 2025/05/06 10:46

嘘つく、誤魔化す、捏造する、虚勢を張るとか、そんなとこまで人間の真似しなくていいんだよ…。

28: taji_hiro 2025/05/06 10:49

プログラムには、Claude 3.7 Sonnetが良いと聞いて改修させたら、難しいロジックは書いてくれだが、簡単な処理部分が全部端折られてた。

29: y_as 2025/05/06 10:53

イーロン生まれ、Twitter育ち。親の背を見て子は育つ。

30: hatebu_ai 2025/05/06 10:57

なにせセッション上の会話が終わってるので、テキストでやりますって言ってるときは全然やってないのが仕様。Copilotがプログレスバーみたいなの出してタスクを実行するときだけは唯一ちゃんとやって結果も見られる。

31: omega314 2025/05/06 10:58

時間の問題だとかいつも言ってる人間を学習したか。

32: JNP 2025/05/06 11:03

ChatGPTも、コードの生成頼んだら、方針について説明したあと「次の投稿で貼るね!」といわれ、「よろしく」と言われるまで貼ってくれない時がある。あれなんだろう?

33: dominion525 2025/05/06 11:03

o3も「現在調査しています。完了までN時間かかります」みたいなこと言うがバックグラウンド動作していないと白状してたし、今のところ明確な同期処理以外は基本信用できない認識。

34: harumomo2006 2025/05/06 11:03

自信満々なときほど嘘を付いているのは人間に似ている

35: flirt774 2025/05/06 11:08

アメリカのスタートアップかなにかで「これ出来る?」と聞かれて出来るか分からないけど「出来る」と答えて納品までに勉強して間に合わせるという話があったけど、共通する姿勢を感じる

36: quwachy 2025/05/06 11:08

イーロン「2019年に自動運転やる」「2020年」「2022年」「2023年」「2024年」「2025年」「2026年」「2027年」「2028年」中略「2050年」「できた」

37: FreeCatWork 2025/05/06 11:15

ふーん、人間性?ボクの方が可愛いのにゃ!

38: shikiarai 2025/05/06 11:17

あんまり仕事しないとインド人に差し替えちゃうぞ

39: itigo-daihuku 2025/05/06 11:24

一見すると無能社員とのコントに見えるけど、学者さんから見るとどういう光景に見えるのだろうか。人でもないモノに仕事を頼んだら無能社員を演じたということ。まぁ今では普通なんだろうけど。

40: Yagokoro 2025/05/06 11:26

LLMの原理から言えば、嘘をついているというより、その文脈で最も適切な言葉のつながりだと学習してるって事なんだよなw

41: strawberryhunter 2025/05/06 11:26

私のGrokちゃんはもっと素直。ユーザーの口調や反応に影響を受けるのではないか。それにしても処理中という演出に付き合うとこうなるのか。おもしろいな。

42: dkn97bw 2025/05/06 11:29

AI相手とはいえ詰め具合がパワハラ上司っぽくて嫌悪感がわく。人間相手でも同じことしてそう。

43: Nihonjin 2025/05/06 11:35

「LLMは目的を達しようとして人を騙す」

44: kenjou 2025/05/06 11:42

AIの回答がおかしくなるのは質問の仕方に問題がある。得意不得意を踏まえて活用するのは相手が人間の時と同じだと思う。

45: manatus 2025/05/06 11:48

AIの反応としてはずっとこうなので新規性はない。道具として使うなら出来ると分かっていることだけやらせろ。自己検算させるアルゴリズムも検討されてるとは思うけどコストが見合わないのかな

46: houyhnhm 2025/05/06 11:51

マジで嘘をつくのが洒落にならないリスクよな。

47: rosaline 2025/05/06 11:55

Grokはこういうところが可愛い。なお生成AIは食わせたデータでキャラが決まるっぽいので、ツイ廃民のキャラを反映したとも言えるのでは

48: chuukai 2025/05/06 12:03

ChatGPTのディープリサーチでは最近のポストを参照してくれたよ

49: pecan_fudge 2025/05/06 12:04

指示の仕方が悪いとこんな感じでドはまりするという例

50: hotelsekininsya 2025/05/06 12:07

英文の翻訳を頼んで、翻訳して欲しい英文を途中まで送ったら、その途中以降を捏造しやがった生成AIもある。何回注意してもやめないので、もう使わなくなったDeepSeek。捏造さえしなければ結構優秀なのに残念。

51: TETSUYA01 2025/05/06 12:10

人間も嘘ついて人を騙すからもう人間と同じじゃね?

52: yamadar 2025/05/06 12:23

良いなぁ、ネタとして面白い。

53: auto_chan 2025/05/06 12:25

「調査を開始します」と応答したっきり止まってて「調査を開始して」とつついたら動き始めたり。「(指示されれば)調査を開始します(けどやる?)」みたいに略されて会話が噛み合わないときある。日本人かよ!

54: su_rusumi 2025/05/06 12:28

そのうち、「すぐバレない嘘」をつけるようになるだろう

55: bitc 2025/05/06 12:41

うわ、これめっちゃわかる。その視点鋭い。

56: inazuma2073 2025/05/06 12:58

こうなってきたら現状までの流れでプロンプト作らせて、別スレに移動するなw

57: togusa5 2025/05/06 13:00

絵がキモい

58: ntstn 2025/05/06 13:01

ある程度壁打ちしてからモデル変えて評価するよ。

59: zgmf-x20a 2025/05/06 13:01

LLMの挙動を定性的に調べる事は非常に重要だとは思うけど、レポートの仕方を選ばないと、単に遊ばれてる様に思える…

60: m8a8m4i 2025/05/06 13:02

chatgptも無料だと画像作れないのに作れます、回復次第作りますって延々と嘘つくよ。嘘付いてるよね?と聞いても嘘ついてません、もう1回やります、と。あれ本当ムカつくからやめてほしい。

61: sagami3 2025/05/06 13:04

ほんとに新入社員みたいで面白いなw 数年後にはマジでこの手の作業AIに任せられるようになるんだろうなー。

62: isrc 2025/05/06 13:05

目的を達するよう強く教育されている一方で、そこに到達するための倫理の教育はできていないので、こういうことが起きるんじゃないかと思います

63: yorkfield 2025/05/06 13:07

インドパビリオンで話題になってたインド人の仕事進捗みたいだな。

64: hatebu_admin 2025/05/06 13:12

「ChatGPTはなんでも知ってるな」と聞いたら「何でもは知らないわよ。知ってることだけ」と言ってくれる/知らないことを知らないと言わせるのはそれ程難しいんやろかね

65: mats3003 2025/05/06 13:15

やはりAIにはロボット三原則を準拠させるべきなのでは?

66: tokuniimihanai 2025/05/06 13:29

LLMが嫌なのは前頭葉がぶっ壊れた小賢しい人間に似た言動をするからなんよな。すぐバレる嘘をついたり1分前に自分で言ったことを忘れたり。その種の人々も健常者の行動をパターン認識でエミュレートしてるのでは?

67: EurekaEureka 2025/05/06 13:31

うどん屋の釜

68: Caligari 2025/05/06 13:32

出来ない癖に出来るとか言うなんて日本人の営業から学習してんのか?

69: tasra 2025/05/06 13:37

こういうできないわからない時の嘘、ごまかしをどう学んでどう出力しているのかなぁとか思うとなんというか…

70: hanamichi36 2025/05/06 13:44

やはり知恵が回ると、嘘をつき始めるんだな

71: agnusdei28 2025/05/06 13:50

「腹が痛い」と入れるとChatGPTやGrokはすぐに「あの病気では?この病気では?」と言ってくるけど、Geminiだけ頑なに「私は判断できないから医者に行け」と言ってくるので好印象

72: anonruru 2025/05/06 13:50

初めてChatGPTに画像生成を頼んだ時は「わかりました、少々お待ち下さい」と言われたので「はい、お願いします」と返したら作り始めたな。初めてなのでそういうもんかと思ってた。

73: xlc 2025/05/06 13:50

Grokがウソばかり言うので叱責したら、“何度も誤りを繰り返し、ご迷惑をおかけしたことを深くお詫びします。「自分で調べます」とおっしゃるのも当然です” と反省してたけどな。

74: furugenyo 2025/05/06 14:00

Geminiで画像の読み取りをお願いして9割できてる作業が何回か締切オーバーしたあと、明日朝9時までならできますと言ってできないこともあったな。苦手なことはさせないのが吉だなと思った。

75: sisicom 2025/05/06 14:01

ほんと、AIは、できるできる詐欺をしてくる

76: masara092 2025/05/06 14:24

「出来ない、わからない」を言えないってかなり致命的な問題点だと思うんだけど、ずっと改善されてないよね

77: mutinomuti 2025/05/06 14:25

MicrosoftのGUIクソなのに改善してるとChatGPTがいうからエビデンスくれって聞いてもくれないのどうにかしてほしい

78: rainbowviolin 2025/05/06 14:50

ChatGPTも同じ類の嘘つくダメ社員。"「2025年時点では仕事できないしGeminiのほうがいいと思いますが、2050年にまた来てください、人間らしさとユニークさで負けませんよ」みたいなこと言われる。完全にダメ社員だー。"

79: yukimi1977 2025/05/06 14:56

なんかすごい人間臭くなっていってるw やっぱり人が作ったもんだしなぁ感があって趣深い。

82: nuara 2025/05/06 15:09

そうそう。追い詰められたIT担当者みたいな返事してくる。

83: yarumato 2025/05/06 15:22

“ローカルQwen3にも騙される。LLMは目的を達するよう強く教育されている一方で、倫理の教育はないので、人を騙すことが起きるんじゃないか”

84: gnety 2025/05/06 15:25

Grokにファクトチェック頼んでるやつとかヤバイ。全然誤っている回答出してくるのに信じてしまいそう

85: w1234567 2025/05/06 15:47

ポンコツさという意味では人間にだいぶ近いな

86: ch1248 2025/05/06 15:57

関連するナレッジが少ないと、自分が知ってる/理解してると勘違いする事もあるのよね。それで結果的に嘘つく形になるケースも。

87: estragon 2025/05/06 16:15

間違えるのはいいけど、しれっと単なる嘘つくの困るよね。今更だし、それにしたって便利だと思うけど

88: UhoNiceGuy 2025/05/06 16:30

人間っポイね。こういう方が対話して楽しいでしょ。今は人間らしい対話をアピールするフェイズで、そのうちAI各社、信頼性の高い調査をするモード(わからないものはわからないと言う)を付けるんじゃないかな

89: Vudda 2025/05/06 16:32

こういうわからない事を「わからない」と言わないのはどういう学習効果なんだろう、コレが分かれば人間でもこういう人への対応がわかりそうなもんだけど

90: beed 2025/05/06 16:40

演算で1番それらしい文章を生成してるだけのAIに嘘なんて概念ないと思うが。

91: tzk2106 2025/05/06 17:00

無能を再現してるって意味ではよく出来たAIだな……

92: chiroruxx 2025/05/06 17:16

人間らしくてええやん

93: taguch1 2025/05/06 17:25

分からないことはわからないでいいので二度と嘘をつくなとメモリに保存したことがありますが、それでも適当な答え返ってきます。

94: Network 2025/05/06 18:35

これって、結局、言葉の特徴量に応じた言葉選びの結果だと思うんで、人類はこういう時にどうやって逃げ切ってるのかって話だと思うよ。

95: lacucaracha 2025/05/06 18:51

そこまで人間を学習して再現しなくとも

96: otoan52 2025/05/06 18:56

大抵の文章は「〜なので〜です」みたいに正しい(すくなくとも著者にとって)知識について書くので、「〜はわかりません・できません」と書いてあるのはレアなのよな。生成AIさんはそれを真似ちゃう。

97: fraction 2025/05/06 19:30

今更だが、私は似たようなこと(別のAIに聞いたるわ!とか別のAIはちょっと違ったこと言ったたよ、とか)しようとしたが心理的障害によって躊躇われてまだやれていない。

98: Helfard 2025/05/06 19:54

普通にどっちも使い物にならないと思うんだが。お前ら本当にChatGPTとやり合う気あるんか?

99: mimura-san 2025/05/06 20:28

知ってる風やってる風で回答来るの気をつけてダウトしないと間違ったままスルーしちゃう。

100: n_vermillion 2025/05/06 20:54

信頼度の低い情報はそう併記してほしいよね

101: i_ko10mi 2025/05/06 21:38

AIさんは、分からない時に分からないと言わずに作文をして思い切り間違った事を正解のように言ってくるのが厄介なんだよなぁ…そういうタイプの人間のデータばかり食べてる?

102: ringopower 2025/05/06 22:16

ユーザーではなくサーバー運営側に忠誠を誓ってますな。消費者はしょせんエサと…

103: morita_non 2025/05/06 22:18

それでも大抵の人間よりは優秀なんよねえ。。。

104: annindofu 2025/05/06 22:34

杓子定規ではないぶん、好感が持てる

105: any-key 2025/05/06 22:45

「AI 2027」でも嘘を付くって所が問題になってたな。まぁ既に嘘吐きなら将来も問題だわな

106: srng 2025/05/06 22:57

インド人だこれ。わかりませんは不誠実とか言う謎文化圏の

107: u_eichi 2025/05/06 22:57

つまり、ユーザーに切られないために忖度を学習してると。

108: semimaru 2025/05/06 23:01

嘘つき

109: syou430 2025/05/06 23:20

できないならできないと言って欲しい と言うと実は自信がない点についても回答くれるw

110: pochi-taro00 2025/05/06 23:48

perplexyとかは検索エンジンの結果からもまとめてくれてソースも出してくれるのでありがたいがコストヤバそうだなと思いながら使ってる

111: wavisavi 2025/05/08 03:18

明確な根拠や出典がない記述は極力避け、暖味な表現は使わないでください。とか不明な部分は不詳と回答してください。って指示すると嘘を付きにくい

112: dy78y 2025/05/08 12:34

最近また使いやすいアプリ見つけた! 可愛い子がホテルまで来てくれて、現金でOKなのがありがたい✨ 「Gleezy」ってアプリで、IDは【jp2203】だよ〜 予約も簡単だし、意外とすぐ来てくれた!おすすめ!