テクノロジー

生成AIの検索エンジンは60%以上も間違った情報を引用。有料版は無料版より自信を持って間違えやすい(生成AIクローズアップ) | テクノエッジ TechnoEdge

1: Seamless 2025/03/24 10:24

生成AI検索ツール8つを調査。結果Perplexityは37%,Grok3は94%で誤解答, Yahoo News等の転載サイトやエラーページなど半数以上で偽や誤URL記載。クローラは有料記事も収集

2: mannin 2025/03/24 12:07

思った以上に厳しいな

3: ume-y 2025/03/24 12:33

「多くのツールは、「~のようです」「可能性があります」などの限定的な表現をほとんど使用せず、知識の不足を認めることもなく、驚くほど自信を持って不正確な回答を提示しました」

4: myr 2025/03/24 12:41

いかがでしたかブログもそんくらい間違ってると思うんだけど

5: Fuyuka3 2025/03/24 12:43

うそはうそであると(以下略)

6: versatile 2025/03/24 13:06

そのうち AI が言うことのほうが正になっていくわけよ。リアルよりネットの事実のほうが本当だと思われるのと同じ流れで

7: nisatta 2025/03/24 13:09

ソースに目を通す必要があるのは普通のニュースや検索と同じで、ふわっとした条件でも答えだしてくれるというのが強みだなあ

8: l_etranger 2025/03/24 13:18

うわっ…Grokの正確性,低すぎ(誤答率94%)。元記事https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php pplxはアクセス禁止記事から情報取りまくってると。それにしても元記事の色使い。色弱殺しすぎる

9: nakag0711 2025/03/24 13:19

出典を暗記で答えさせるようなもので無理があるのかも

10: tnakamr 2025/03/24 13:21

要注意

11: rna 2025/03/24 13:31

「有料版は無料版より自信を持って間違えやすい」金出して買う嘘からしか得られない栄養素がある…!

12: takamocchi 2025/03/24 13:54

youtube動画の政治や経済のまとめもだいたいそれくらいの精度だと思うよ肌感覚だけど。つまり人間が調べるのと大差ない。

13: kazuhix 2025/03/24 13:59

参照している実世界が間違いや恣意的なウソにまみれてることを正しく反映しててすごい。つまり出来のよい生成AIはショーンKになりがち

14: headcc 2025/03/24 14:22

AIで検索エンジン不要になる時代は到来するとは思ってるが、現段階ではまだファクトチェック必要だと思うんよな、にも関わらずAI出力を信じるガイジ多くて怖い、そのままyoutube台本にしてるガイジも

15: fishma 2025/03/24 14:27

自信満々に間違った答えを普通に出してくるんだよな。コーディング支援にしても、さも当然のように存在しないAPIを叩いてくる

16: makou 2025/03/24 14:35

AI技術者がマーケ側に無謬を押し付けられて「じゃあ正確な情報を寄越しなさい」と返す。一休フォーマットの応用例である。

17: soybeancucumber 2025/03/24 14:59

技術系の情報調べてるのに引用元がqiitaじゃな

18: crimson_diamond 2025/03/24 15:04

↓そう!Qiita 検索するのまじでやめて!!

19: birisuken8574 2025/03/24 15:13

ほんまそれ。普通に嘘を言ってくる。

20: misshiki 2025/03/24 15:45

“調査の結果、これらのチャットボットは全体として60%以上のクエリに対して不正確な回答を提供することがわかりました。Perplexityはクエリの37%に誤った回答をした一方、Grok 3は94%という高いエラー率を示しました”

21: miki3k 2025/03/24 15:49

学習した内容が「正しい」かどうかは誰も担保しない

22: hate_flag 2025/03/24 15:52

今求められてるのは知らないことを知らないというAIなのだ。それが無知の知ということであり検索結果に該当する商品がなかったら「ないです」っていう検索システムなんだぞおい聞いてるかAmazon

23: gpdwin 2025/03/24 16:57

ネットのインフルエンサーを彷彿とさせるなぁ 正誤問わず自信を持って言い切ったほうが支持が集まる 結局受け取る側の人間側の認知の限界があるから煮詰めれば煮詰めるほどこの解に落ち着きそう

24: hide_nico 2025/03/24 17:29

“Perplexity Proはこの点で最も問題が多く、アクセスできないはずの90の抜粋のうち約3分の1を正確に特定しました。Grok 3では、200のプロンプトに対する回答のうち154もの引用が存在しないエラーページへと誘導していました”

25: Tamemaru 2025/03/24 17:36

SNSの議論を眺めていると「AIに聞いたらこう言ってました!」と自信を持って貼り付けてる輩がいてスン……てなる

26: InvisibleStar 2025/03/24 17:49

いかがでしたかブログも似たようなものというのはその通りだが、ドヤ顔で「いかがでしたかブログにこう書いてました」と言う奴はあまりいないが、ドヤ顔で「ChatGPTがこう言ってました」と言う奴は腐るほどいるんよな

27: flowerload 2025/03/24 18:04

ようはいかがでしたかブログと同じぐらい信頼できないってことか。使えねー。

28: yujimi-daifuku-2222 2025/03/24 18:22

生成AIと比較して現時点でネット検索が勝っている点は、例えばMicrosoft製品の技術情報を確認したい際に公式ページの情報が否か、後者であれば容易に判別が付く所にある。

29: s-supporter 2025/03/24 18:44

以前にChatGPT searchが隠しテキストに騙されることが話題となったが、元情報の正誤判定はもちろん、AIは回答拒否が出来ないから無理に答えを作り出すとも言える。https://webtan.impress.co.jp/e/2025/01/10/48432

30: BigHopeClasic 2025/03/24 18:50

人類が数千年にわたって積み上げてきた知の体系は生成AIの数十年で全てぶっ壊されで人類は石器時代に逆戻りするんだろうな

31: nicht-sein 2025/03/24 18:58

学習結果が正しい事は誰も保証していないのに、「コンピュータは間違えない」から正しいに違いないって受け取ってしまう人間の不具合。多分、当分修正されない

32: ookitasaburou 2025/03/24 18:58

“他方で、GeminiとGrok 3は回答の半数以上で偽造されたURLや機能しないリンクを提供していることが判明しました。特にGrok 3では、200のプロンプトに対する回答のうち154もの引用が存在しないエラーページへと誘導していまし

33: fraction 2025/03/24 19:16

初めて検索エンジンとして使って他では全然でてこない文献geminiに紹介された(grok3のやつはポチったので存在する様子)数学知識、能力は現時点でソーカル事件のポモレベル未満であることが確信できる証拠が山積みに...

34: lbtmplz 2025/03/24 19:30

嘘つきの人類が作ったツールもまた嘘つきなの壮大な皮肉?

35: tyuke 2025/03/24 20:01

間違ってるしダラダラと長文書いてくるので、まずは概要や候補のリストアップしてから説明しろと言ってあるし、なんなら訂正もする。結局裏取りするコストが高かったりもする。

36: otihateten3510 2025/03/24 20:08

どういう計算の60%か知らんけど、ググるのと大差ないでしょ?その程度歯科期待してないから良いよ

37: beed 2025/03/24 20:41

感情のないただのツールに対して、自信がどーのとか感情ベースの評価するなんて…あれか?回答が正しい確率とか出せばいいのか?

38: ghostbass 2025/03/24 21:05

2年後ぐらいにAIOとかのサービスができそう

39: miketaro1234 2025/03/24 21:22

“自信を持って不正確な回答をより頻繁に示す" 「これが法的根拠及び判例解釈上、正確な最終結論となります。」って、しめくくる割に不正確な答え返ってくるからな。

40: hogeaegxa 2025/03/24 21:25

検索結果に対してそれらしいURLを生成してエビデンスとしてつけてくるのは生成AIからしたら「は?URL生成して何が悪いんですか?俺生成AIなんですけど?」って感じな気はする。

41: higgsino 2025/03/24 21:28

人間がググったらそれ以上に間違うのだから寧ろ有益と考えた方が良い

42: vegnpomn 2025/03/24 21:29

提供してない有料記事に対して、中身クロールしてないと出しようがない結果を出したとなると訴訟大国で勝てるとは思えないがどうなんだろう。トランプ大統領はAIフレンドリーだからいいのか?

43: knowledge7p 2025/03/24 22:00

嘘を嘘と見抜ける人間でないと情報を見るのは難しい

44: mohno 2025/03/24 22:28

わざわざ生成AIをオフにはしていないが、出てきたものがそのままは信用できないというか、テキスト加工されてることも多いし、少なくともリンク先を見てみないとね。

45: chainwhirler 2025/03/24 22:44

「正しい」「間違っている」という観点で生成AIを使う必要はない。

46: oyamissa 2025/03/24 22:46

モンハンのNPCはフルボイスじゃなくていいのにってchatGPTに言ったら「ティガレックスに大物声優をキャストするのもやりすぎですよね…!」とか言い出して笑った

47: augsUK 2025/03/24 22:56

生成AI系は正確で再現性のある作業が苦手というファジーさは、いつ頃に常識になるだろうか?電卓以来の計算機の常識が崩れるわけだが

48: okaz931 2025/03/24 23:02

そもそも検索結果を知識の源泉としてるなら、早晩衰退するのは目に見えてるような、、、。誰がクローラー以外誰も見にこないWEBに無償で情報をアップし続けるの?貶してるとかじゃなくて単純な疑問です。

49: Phenomenon 2025/03/24 23:22

なにができてなにができないのか探ってこうぜ

50: iksmpic 2025/03/24 23:47

'有料版は無料版より自信を持って間違えやすい'で非常に笑った

51: katti 2025/03/24 23:57

人間も似たようなもんやろ。。。

52: throwslope 2025/03/25 03:23

生成AIやLLMの仕組みを理解していないドアホジジイの主張

53: soratomo 2025/03/25 04:10

生成AIは、ユーザーが期待する答えを当たり障りなく最適化して出力するものだと思ってる。まー、外資系企業の上司に媚び売ってうまく出世する有能な部下って感じかなあw

54: cinq_na 2025/03/25 05:36

こっちは論文示して説明してるのに、AIはこう言ってますって反論する奴って脳みそ入ってるのかな。それも初学者でも知ってるような話でさ。

55: peppers_white 2025/03/25 06:22

AIの発言って基本ネットのどこかから学習してきてるわけだから、引用元の発言ってマジで大事で、それを表示する機能がなければ何の価値もない/AIは付き合うことが前提だから高ストレスツールだと思う

56: harumomo2006 2025/03/25 06:47

LLMの仕組みとして見違っていることを認識させるのは難しそう。間違いを指摘すると訂正することはあるけど頑なに自分が合っていると主張することもある

57: localnavi 2025/03/25 07:22

間違った情報を出してくる・実在しない情報源を捏造する・分からないことを分からないと言ってくれない、は生成AIあるあるだが、クロール禁止サイトも平気でクロールしてるとか、転載先をソースとして出すとかは問題

58: ys0000 2025/03/25 07:49

DeepResearchで間違ってると悲しいから、2025年の生成AIは95%くらいの正答率を求められる時期に来てると思うよ。数字はてきとーだけども、流石に4割の正答率は厳しい。

59: netafull 2025/03/25 08:21

“多くのツールは、「~のようです」「可能性があります」などの限定的な表現をほとんど使用せず、知識の不足を認めることもなく、驚くほど自信を持って不正確な回答を提示しました。”