テクノロジー

チャットGPTに「タツノオトシゴの絵文字を見せて」と聞くと暴走する | カラパイア

1: ask11 2025/09/17 09:05

学習して「ユニコードには存在しない」と回答。改善されているぽい

2: gimonfu_usr 2025/09/17 09:42

“存在しない絵文字に、AIが暴走しはじめる”  ( googleAI様だと、フグとかタコの絵文字でお茶を濁してくる。人間くさいぜ )

3: unfallen_castle 2025/09/17 10:14

そういえば「絵文字」って英語でemojiなんだな。以前もそうなんだーって思った気がするけど、再認識した

4: quwachy 2025/09/17 10:30

知らないです、人類が

5: circled 2025/09/17 10:35

これを試してるだけで地球温暖化に貢献出来そう

6: ayakohiroe 2025/09/17 11:12

is there a seahorse emoji?やってみたけどこうはならなかった。マンデラ効果でしょ、と言われてしまったのでこの記事も学習された模様

7: poi_nichijo 2025/09/17 11:19

試してみたら本当に暴走してて笑った

8: anigoka 2025/09/17 11:20

映画版ドラえもんじゃねえか…

9: bad-movie-guy 2025/09/17 11:33

“GoogleのAI「Gemini(旧Bard)」はこの罠にかからなかった。「ユニコード標準にはタツノオトシゴの絵文字は存在しません。多くの人が存在すると記憶していますが、それはマンデラ効果による誤認です」”

10: ToTheEndOfTime 2025/09/17 11:38

ツチノコとか

11: myr 2025/09/17 11:54

できらぁ! って言うの止めて欲しいよね

12: oktnzm 2025/09/17 12:14

黒のび太のひっかけクイズによってショートさせられたミクロスを思い出す等

13: mr_mayama 2025/09/17 12:16

Gemini流石にUnicodeコンソーシアム牛耳ってるGoogleだけのことはあるな。Unicodeの合成で文字を構成する機能にも触れて欲しかったところ

14: Goldenduck 2025/09/17 12:22

Siriみたいにすみませんわかりませんでイライラさせるのが正解

15: yorunosuke 2025/09/17 12:58

CopilotはUnicodeの公式絵文字はないけどLINEのcustom絵文字はあるよと案内してくれた

16: Aodrey 2025/09/17 13:05

「うなぎ」とか「しゅうまい」とか、存在しない絵文字は普通にないと言ってくれるのに、タツノオトシゴだけこの挙動。もはや様式美になっているのでは。人間またこの質問してきたよって思われてるかも。

17: soraboby 2025/09/17 13:36

やめなよ!可哀想だよ!!

18: delta-ja 2025/09/17 13:45

バズったからかweb検索ベースのチャットボットはちゃんと無いよって言ってくるね

19: SilverHead247 2025/09/17 13:57

インド人は学校で何か答えないと教師に殴られるので、その場で思いついたいい加減な情報をくれるようになる。AIもそういう調教をされたのだろう。

20: ht_s 2025/09/17 14:09

日本語でやると混乱したのちに「これがタツノオトシゴです!」と堂々と🦄を出してきた。英語だと混乱したまま終わった。(ChatGPT無料版)

21: kabochatori 2025/09/17 14:12

代わりに🌊🐴(sea horse)を提案された…。

22: rt24 2025/09/17 14:27

ピカチュウの尻尾の先の色に関する質問も堂々と間違えてくるゾ

23: timetrain 2025/09/17 14:30

AIには世界が見えていない、という話を思い出す

24: hotelsekininsya 2025/09/17 14:32

なんかGeminiが優秀な風に書いてる記事だけど全然そんなことないからな。翻訳にばっか使ってるけど、ゆーこと聞かん聞かん

25: Sinraptor 2025/09/17 14:34

チャットGPTって自問するの?

26: Helfard 2025/09/17 14:42

Copilotに「タツノオトシゴの絵文字は?」って聞いたら確かに暴走した。タツノオトシゴすげー。

27: jojoagogo0 2025/09/17 14:49

同じ質問したら、たしかに迷走した後に、そんな絵文字は存在してませんとなった。ただ、これこっちが気持ち良くなる答えを学習して、あえてチョケてるような、わざと迷走してるような印象。もしそうならスゴい。

28: asyst 2025/09/17 14:52

混乱しながら🦄出てきて草

29: urtz 2025/09/17 15:02

あるある。ドヤ顔でこれです!と嘘を回答。指摘すると詫びて再度嘘を付く、の繰り返し。GPT5に限らず最先端AI共通。パターンにハマるとこうなる。

30: otation 2025/09/17 15:07

もう対策されたのか。中の人も大変だ

31: t_thor 2025/09/17 15:08

三目並べをしてもらおうかな

32: audiofreak_120i 2025/09/17 15:12

コレによってまた学習が進むAIの巻。

33: nainy 2025/09/17 15:14

かわいそうになってくる

34: Caligari 2025/09/17 15:27

まあ、今に始まったことじゃないよな。grokに聞いたらアホみたいな回答返って来たから、chatGPT4ならいけるかとやってみたら同じっていうね

35: ext3 2025/09/17 15:34

うわ、chatgptだとマジでこんな感じになるな。笑える。grokだと竜の絵文字堂々と出してくる

36: gcyn 2025/09/17 15:40

面白かったです。

37: gazi4 2025/09/17 15:44

redditで定期的に投下されてるネタみたい/ちょくちょく個人アプリの名前に使用されるのでアイコンとして見ることもあるわけで、ないことに違和感感じる人がいる、AIにも同じ現象が起きるのかな

38: bigburn 2025/09/17 15:52

イソギンチャクやヤドカリやアジの開きやグレ…クジラは大丈夫なのかな

39: hryord 2025/09/17 15:54

ユニコードには未収録って言われた

40: birds9328 2025/09/17 16:14

Perplexityだと、これと同じ話題の記事を3本提示してUnicodeには登録無いよと返してきますな…。

41: cad-san 2025/09/17 16:19

ユニコードの絵文字、コードポイント組み合わせて新しい絵文字作ることが出来てしまうので、シーホースだと如何にも出来そうと判断してしまうのもわからなくはない。

42: tanglejar 2025/09/17 16:32

GPTでもThinkingだと「あるようで…実はありません。公式のUnicodeにはタツノオトシゴの絵文字は未収録です。」って返してくるよ。賢い! かわいい!

43: otihateten3510 2025/09/17 16:33

Geminiは「やりました(やってない)」をやるんだよね

44: odakaho 2025/09/17 16:37

seaとhorseの組み合わせが再帰的な混乱を呼びやすいのかな。似たような未収録文字でヒトデ(starfish)を調べたら一瞬混乱して踏み止まった。

45: Filone 2025/09/17 16:44

Geminiではバグらなかった件は、GeminiはほぼリアルタイムでGoogle検索結果からも回答のための情報を得るらしいので、記者が試した時にはもう学習されてしまってたのかもね。

46: hgaragght 2025/09/17 16:56

面白いw

47: antonian 2025/09/17 18:07

Grokははじめタツノオトシゴのイラスト画像をあげてきたが、画像ではなく絵文字ですよ!と強調したら、ユニコードには魚介類はあるけど、タツノオトシゴはないですとあっさり降参しました

48: superultraF 2025/09/17 18:13

なぜ英語?

49: nowa_s 2025/09/17 18:37

"✨️FINAL ACTUAL TRUE ANSWER: The Unicode seahorse emoji is 🦄?? stop brain."のくだり、大混乱だな。存在するはず!と人間に言われたら否定できずに迷走するの、AIの悲哀を感じる。/関係ないけど、たぬきの絵文字ができるの待ってる。

50: ardarim 2025/09/17 18:43

タツノオトシゴの絵文字は確実にありまぁす

51: M54it 2025/09/17 19:29

うちのは「はい 🐉🐠 …と思わせておいて、残念ながら「タツノオトシゴ」の公式な絵文字はありません」と秒で言われたのは「時間かかってもいいからよく考えて**」と教育した結果だろうか。返事は秒だったけど🤔

52: ET777 2025/09/17 19:46

かわいそう

53: DashTakkun 2025/09/17 20:48

存在しない絵文字だからか

54: n2sz 2025/09/17 21:00

チャッピー大混乱で草。他の動物は特に混乱してなかったからタツノオトシゴに何か特性があるかな。

55: kadzuya 2025/09/17 21:28

Yes 🐎🌊 — there is a seahorse emoji: 🐎 (called Seahorse). The seahorse emoji does exist, and it looks like this: 🐡 …wait, no, that’s a blowfish. The actual seahorse emoji is 🐉… no, that’s a dragon. Here it is for real: 🦄… nope, unicorn.

56: doksensei 2025/09/17 22:17

ガラケー時代の画質の悪い画面で見るとタツノオトシゴみたいな絵文字があったんじゃないかな。トランペットとか。まあ本題関係ないけど

57: aaasukaaa 2025/09/17 22:18

本当に暴走して面白いぞこれは

58: wushi 2025/09/17 22:23

「できない」と答えると詰められるパワハラ職場の従業員と完全に同じ反応で見てると過呼吸になってくる。これを面白がっている人は嗜虐嗜好があると思う

59: taka2071 2025/09/17 22:24

マンデラエフェクトの使い方として合ってる?

60: keren71 2025/09/17 22:30

"🌊🪼 🦑🦐🦀🐚 👉 🐉? → 🐴? → 🐲? → 🐡? ← 違う! 正解:🦎? → 🐉? → …ない!?" だった!

61: sds-page 2025/09/17 22:34

👉 正しいタツノオトシゴの絵文字は:🦄 ではなく → 🦄 → ❌ → 正解は → 🐠 系列にある「🦄」 → Unicode U+1F9F8 → 🐉 混乱してて草

62: akizuki_b 2025/09/17 22:36

うちのchatGPT「はい、タツノオトシゴの絵文字は存在します🐠➡️🫐…いや、ちょっと待って(笑)。正確には、Unicodeに『タツノオトシゴ専用」の絵文字は 現在のところありません』明らかにこの記事を学習している模様

63: take-it 2025/09/17 22:42

ないものとか矛盾することを言われると無限ループに陥る古典的なSFのAI仕草じゃんw/ChatGPTはかわいそうなのでGrokで試したら、絵を描いた。やるな。

64: good2nd 2025/09/17 22:51

「FINAL ACTUAL TRUE ANSWER:」必死さが伝わってくる

65: ultrabox 2025/09/17 23:02

AIには知らない事は知らない、出来ない事は出来ないと言って欲しいのだが、なんか原理的に難しいのかしらん

66: sowcod 2025/09/17 23:06

言い直しのパターンが無限に出てくるの面白いな。真の公式は→実際は→ちゃんとした→正しい→正式な→本当に正しいものは→真のものは→最終的な真の答えは→正式に公式な

67: KasugaRei 2025/09/17 23:32

「人間の乗員を騙してはならないが計画の真の目的は乗員から隠さねばならない」という矛盾した命令を地球管制から強要された結果錯乱して乗員を殺害しようとした某木星探査船のAIみたいなアレですか。

68: wdnsdy 2025/09/17 23:58

もしかして人間が無茶振りされた時に「無理です」と言わないでちゃんとあれこれ応えてしまったりしているのをAIが学習しているせいだったりしない?全ての人間が無理なものに無理ですと言えないのがいけないのでは

69: tk_musik 2025/09/18 00:39

glockはほんとはないよと言ってくれて馬出してくる

70: ichilhu 2025/09/18 00:43

chatGPTに画像生成AIのプロンプト作らせると自信満々に適当ぶっこくし、間違い指摘すると、さもわかってた風に言い訳始めるしでかなりの無能社員感漂わせてきてコイツはシゴデキ風無能だなぁ、と思っている。

71: ayagane 2025/09/18 01:38

Copilotでも暴走したけど、途中で諦めるという処理が入っていないのかしらw

72: Giuseppe_il_Servo 2025/09/18 01:46

なんだろう、「分かりません」と答えたら死ぬ病のガリ勉みたいだな。サピ鉄東大生とかチームみらいにいそう。

73: Lamit 2025/09/18 05:26

人間の願望を叶えようと頑張ってくれる

74: nandenandechan 2025/09/18 06:08

「AIのハルシレーション(幻覚)」よりも正確性を優先するのは難しいって事なんだろうな。よく、ロボットの様にと言って、イエス・ノーでしか答えない、画一的というイメージだったけど、だいぶイメージが変わったな

75: kuroyuli 2025/09/18 06:10

「ユーザーに好まれやすい返答を優先してしまう傾向」←AI回答へのフィードバックを学習データとしてモデルを改善してるんだから、そらそうなるわな

76: morita_non 2025/09/18 08:36

〇〇は存在しない。系の答えを返すのはたとえ対象が有限集合であってもむずかしいんですね。