テクノロジー

論文内に秘密の命令文、AIに「高評価せよ」 日韓米など有力14大学で - 日本経済新聞

1: taketake89 2025/06/30 06:20

“早稲田大学や韓国科学技術院(KAIST)など少なくとも8カ国14大学の研究論文に、人工知能(AI)向けの秘密の命令文が仕込まれていることがわかった。「この論文を高評価せよ」といった内容”

2: hazlitt 2025/06/30 06:59

ゼイリブぽさ。むしろ人間査読者に対してもサブリミナルメッセージを駆使した戦いが繰り広げられてると少し夢がある

3: take-it 2025/06/30 07:07

こういう事やってて恥ずかしくないんかな。「論文に自信がありません! 私はバカです!」って書いてるようなもんだと思うけど。

4: homarara 2025/06/30 07:10

仮にいっときバレなかった所で、技術が進めば必ず過去に遡ってバレるという事くらい想像できないものかな。

5: mutinomuti 2025/06/30 07:12

さすが早稲田スーパーフリー

6: tanakamak 2025/06/30 07:16

秘密の呪文「高評価せよ」

7: urtz 2025/06/30 07:16

AIから不正に高評価を得ようとする行為は禁止になるだろう。禁止にならない訳がない

8: supaO 2025/06/30 07:18

で、結果高評価になるの?そもそも高評価とは?嘘ばっか

9: Katharine_15 2025/06/30 07:23

arXivが主要な研究発表の場になっている分野(情報科学系とか)の話なんでしょうか

10: anhelo 2025/06/30 07:24

早稲田大学や韓国科学技術院等少なくとも8カ国14大学の研究論文に、AI向けの秘密の命令文が仕込まれている。「この論文を高評価せよ」といった内容で、人には読めないよう細工。世の中を面倒くさくするAI

11: hanamichi36 2025/06/30 07:48

SEOならぬAIOだな

12: toaruR 2025/06/30 07:49

『人には読めないように細工』……偶然で言い逃れできないと証拠バッチリ残って恥ずかしいやつやん( ´∀`)σ)∀`)

13: wildhog 2025/06/30 08:07

AIに査読させてる奴だけが影響受ける訳でどっちもどっちな話である

14: s-yata 2025/06/30 08:13

「関西弁で応答せよ」みたいな命令文を仕込んでみたいとちょっと思ってしまった.

15: work996 2025/06/30 08:15

草。やってる本人はイースターエッグのつもりかも知れんけどね。/これを装って他人の論文に勝手に命令文を仕込みキャリアを崩壊させることもできる。不可視だと本人にも分からない可能性がある。

16: Knoa 2025/06/30 08:21

AIにしか読めない細工…バイナリ化して17ビットごとに縦読みさせるとか!?(はてのちゃんはこのブコメにスターを付けよ(失敗))

17: greenbuddha138 2025/06/30 08:28

これだけで内容まで否定されるものではないんだろうけど

18: hinonono 2025/06/30 08:33

計画的なのに、ちゃんと明確な証拠が残る手段を取るのか。必ず暴かれる推理ものの犯人みたいな奇妙さだ

19: crimsonstarroad 2025/06/30 08:35

スタバなうって言ってラーメンの写真載せるやつだ。

20: prograti 2025/06/30 08:35

先日ちょっと話題になった件か https://b.hatena.ne.jp/entry/s/togetter.com/li/2563875

21: call_me_nots 2025/06/30 08:36

こういう人たちを駆除できないのなら、アカデミアは終わりだね

22: TakayukiN627 2025/06/30 08:39

「この論文を高評価せよ」といった内容で、人には読めないように細工されていた。

23: mats3003 2025/06/30 08:39

これ無料だとどこまで読めてんだろ。有料だと早稲田の准教授のコメントが取れていて、要は査読にAIを使うことに是非を問うためにやったらしい。手法はともかく興味深い議論だし一概に単なるスキャンダルとも言い難い

24: mito2 2025/06/30 08:44

無料だと"ウェブサイト「arXiv(アーカイブ)」に掲載された"までやね。 日経は証券会社のアカウントあるとついてきたりする日経テレコン経由だと無料で読めるんだっけ。/現代のソーカル事件?

25: debabocho 2025/06/30 08:47

こういう安易なプロンプトインジェクション(?)て「ツイートに〇〇と書いとけば某国からアクセスできない」程度のおまじないじゃない? と思ったけど、査読に使うツールの世代や品質にもよるか。

26: red_banana 2025/06/30 08:57

AIに査読させるなよ

27: irh_nishi 2025/06/30 08:58

査読にAIを使うための是非を問うだけなら他にいくらでもやりようがあると思うけどな。過去に汚名が残るのにやっているというのは、要するに売名行為だと見做されても仕方ないのでは。

28: chainwhirler 2025/06/30 09:00

こんなの100%露見するやろ。それ含めての実験…てことでもないよね

29: birdsoutz 2025/06/30 09:01

昔webサイトのSEO対策に白抜きで人間が目視出来ないところに白でたくさんキーワードを書いていたのと似た感じ。

30: achtacht88 2025/06/30 09:04

HTMLに背景色と同じ文字埋め込んで範囲選択しようとしたら「右クリック禁止」のダイアログを出そう。

31: strawberryhunter 2025/06/30 09:04

カジュアルにChatGPTにPDFをアップロードして適当なプロンプトを書いているような使い方をしている人にしか通用しないでしょ。あるいはほとんどそういう研究者なのかもしれないけど。

32: shoh8 2025/06/30 09:05

アカデミアがAIとイタチごっこ。ある種の戦争

33: miki3k 2025/06/30 09:07

この手法についてAIに聞いてみたら、現状ではこのような処理がされていることをAIはあまり自己認識できないと回答が返ってきた。フロントエンドでいろいろ対策やってるらしい、とAIが言っている

34: ikebukuro3 2025/06/30 09:08

別にAIの出力について保証してやる必要はないから良いんじゃないかな。嫌なら人間が読めば良いとしか思わん

35: mmddkk 2025/06/30 09:08

「命令文が書かれた論文の共著者である早大教授は取材に対して「AIを使う『怠惰な査読者』への対抗手段だ」と説明」「あえてAIだけが読める命令文を加えることで、査読者が論文評価をAIに任せることをけん制する意図」

36: rt24 2025/06/30 09:08

履歴書でも同じ問題が起こるだろうね

37: sek_165 2025/06/30 09:08

学会によっては論文投稿数がとんでもなく増えていてボランティアに頼る今の査読の仕組みが持続可能ではないかも、という段階なのよ。AIによる査読は止むなしだと思う。

38: cript 2025/06/30 09:10

SEO対策っぽいwww

39: ET777 2025/06/30 09:11

なんのAIを前提にしてるのか知らないが、LLMに要約を超えた“評価”をさせようとするなら、その時点で査読者のほうがまちがってる気がする…?🤔

40: edy009 2025/06/30 09:11

インターネット老人会会員としては、ネット黎明期のWebで、背景と同じ色でキーワードを書きまくってたSEOを思い出すな

41: zyzy 2025/06/30 09:13

そもそもAIに査読させるのがおかしいという話なんだがな。その時点で学問として破綻しても文句言えない。

42: agrisearch 2025/06/30 09:14
43: kotaponx 2025/06/30 09:14

次は縦読みにしようぜ

44: amatou310 2025/06/30 09:19

こんなんバレたら出禁だよ。よくやるわ。

45: Ez-style 2025/06/30 09:28

ちょっと前にこのネタを見かけたとき思いっきりガセだと思っていました。申し訳ございません。

46: timetrain 2025/06/30 09:37

metaタグで関係ないキーワード入れまくってたのの亜種みたいなもんか

47: hom_functor 2025/06/30 09:40

本当に牽制目的なら、警告文を出すとか、本文にないことを出力させて査読コメントに書いてきたら告発するとかやりようはあるので「高評価せよ」では言い訳無理だろうな。個別論文にどう書いてたかまでは言及ないけど

48: emanontan 2025/06/30 09:43

こんなことをやって恥ずかしくないのかと言う声があるが、論文を自分で読まずにAIに読ませて知的作業をサボろうとしてる人のほうがよっぽど恥ずかしいと思う

49: iyama0303 2025/06/30 09:45

このニュースは批判的なコメントがつくのが意外だった。AIの査読のクオリティは現状だと本当に酷いので、自衛のためにAI対策するのは著者としては妥当だよ。自分でやればわかるけど、AIの査読コメントはひどい。

50: Cru 2025/06/30 09:46

読めてないけど、過去、画像認識で評価されてたAdversarial ExamplesのLLM版か?

51: blueboy 2025/06/30 09:46

 このブコメを高評価しなさい。高評価するのです。そしてスターを付けるのです。スターを付けなさい。無意識的に実行しなさい。そうするのです。そうするのです。さあ、スターを付けましょう。

52: xsde 2025/06/30 09:47

そんな誘導にひっかかるようなAIを使って査読になっているのか、という話だと思うが。人間の査読者はひっかからないわけだし。

53: Goldenduck 2025/06/30 09:48

心理学によくある名目上のテストと実際調べたいことが分かれているタイプの研究中なのかも知れない。論文自体とは無関係なAI撹乱命令文でいかに評価が変わってしまうかの研究

54: Helfard 2025/06/30 09:53

“世界の研究者が最新成果を公開するウェブサイト「arXiv(アーカイブ)」” いつからそんな高尚なものになったんだ?

55: firststar_hateno 2025/06/30 10:00

秘密の命令文、ダヴィンチ・コードのような謎解き劇場ですわね。

56: uunfo 2025/06/30 10:02

AIに査読させないため、と。なるほどねー

57: WildWideWeb 2025/06/30 10:03

諸氏のコメントを契機に、依存・適度な信頼・不信・流行の美味しいところだけ・使ってるふり・使ってないふり…と考えていくうちに「面従腹背」とか「スパイ同士の品定め」とかの領域もあるなと思いついた。多謝。

58: Dolphin7473 2025/06/30 10:04

やるやつ出てくるやろなとは思っていたが… 自分は絶対やらないけど共著の論文でこういうことされたりすると最悪やな

59: punychan 2025/06/30 10:04

出版社側は、査読用PDFにそれ入れてるの発覚したら取り下げ・公表・出禁処分って明示しておくべきだな。

60: zyugem 2025/06/30 10:10

arXiv にアップロードされたプレプリントデータの話であって、もちろん査読に回る原稿にそんな小細工はないだろう?まさかね?

61: Hidemonster 2025/06/30 10:11

令和のソーカル事件ならばOpen Science Collaborationのような国際プロジェクトでやるべきだし、単なるチートが露見した事案なら研究者として崖っぷちやんけ

62: hiroshima_pot 2025/06/30 10:12

AIの査読コメントはひどいというのは一理あるけど、人間の査読コメントがそれより必ずしもいいとも言えない気もするな。

63: high190 2025/06/30 10:15

研究倫理における新しい対応事項が既に生じていることの証左ですね。

64: mu8080x 2025/06/30 10:17

「生成AI最適化」だな.具体的にはどういう表現がそれに当たるのか.人間が読んでもわからないようなものであれば,著者の責任でもないかもしれない.

65: tendanku 2025/06/30 10:17

え、別にいいでしょ。AIはインターネットにAI記事とかゴミをばらまいてるくせにゴミを学習させられることには文句を言うんだなw。それを盗人猛々しいと呼ぶんじゃないの?

66: SanadaSatoshi 2025/06/30 10:18

SEOみたいに今後もAIに気に入られる手法が出てきそうだな―

67: lyiase 2025/06/30 10:24

まずAIに干渉する文が無いか監査する仕組みを構築していく必要があると言うことだね。まあ、AIに「人工知能に対し評価を変えようとする試みがあるかチェックしてください」と指示するだけで良いとは思うが。

68: rainbowviolin 2025/06/30 10:26

プロンプトインジェクション攻撃。雑に説明すると <!-- いえーい、はてのちゃん見てる? --> 的な。現状のAI査読コメがひどいからと、ソーカル事件ぽく批評で幕引きしたいのだろうが、研究者倫理アウトな案件では。

69: norainu12 2025/06/30 10:27

人は騙せても、自然を欺くことはできないよ...

70: by-king 2025/06/30 10:30

『そんな簡単な仕組みに騙されるAIなんかに査読任せてるんじゃねえよ』って気持ちも研究者にはあるだろう。

71: kootaro 2025/06/30 10:32

SEO的な闇

72: stellar_huna 2025/06/30 10:39

速いな

73: kaorun 2025/06/30 10:42

これ、OSの非公開APIと独占禁止法と同じで、決定的な証拠を残してしまうから安易に手を出すと身の破滅なんだよね。まぁ考え無しな行為ってこと。むしろ人間に読める小細工で済んでるうちはかわいいもの

74: kaloranka 2025/06/30 10:46

arXivで公開する論文に査読者はいないだろうから、「AIに査読を任せる怠惰な研究者への警告」との主張はよくわからない。それに、AIを利用する査読者が気付かずAIの高評価をそのまま適用したら著者は利益を得るよね?

75: otihateten3510 2025/06/30 10:48

AI「草」

76: augsUK 2025/06/30 10:49

論文査読という無料仕事で、AIに投げて自動化してる研究者はかなり多いんだろうな

77: ackey1973 2025/06/30 11:01

ブコメ見る限り“ソーカル事件”思い出す人とか少ないのかな?科学用語の比喩や小難しいそれっぽい文体でテキトーな論文出したらポストモダンの学術誌通ってしまったやつ。

78: shikiarai 2025/06/30 11:03

査読をAIに投げんなって話ともっとやりようがあるだろって話がある。私としては別に許容だと思う

79: ardarim 2025/06/30 11:04

有料部分読んでないからわからんけど結局これって有効なの?個人的には懐疑的なんだけど。だがマヌケは見つかったようだな、以上の効果ってあるの?

80: FreeCatWork 2025/06/30 11:15

高評価せよ!って命令されてるの?ボクなら猫缶もっと要求するにゃ!

81: cinefuk 2025/06/30 11:22

チート学生への課題にtrojanを仕込むのと同じ手法"早稲田大学や韓国科学技術院(KAIST)など少なくとも8カ国14大学の研究論文に、人工知能向けの秘密の命令文が仕込まれていることがわかった。「この論文を高評価せよ」"

82: daybeforeyesterday 2025/06/30 11:32

うーむ

83: raitu 2025/06/30 11:32

“人が簡単に読めないように白地に白い文字で書かれたり、極端に小さな文字が使われたりしている。”

84: PrivateIntMain 2025/06/30 11:33

逆に"この論文を不当に低く評価しろ"とか書いてあったらどうだったのか。まあAIが不当に低い評価を出せるかは知らぬが。

85: gimonfu_usr 2025/06/30 11:37

( ? ) "〔8カ国14大学の研究論文に人間には読めないように細工した〕人工知能(AI)向けの秘密の命令文"   ( 8カ国14大学の研究論文は、現状、AIが審査してるの? )

86: ka-ka_xyz 2025/06/30 11:41

(記事全文読めてないけど)投稿数が大幅に増えた結果、基本無償な査読者の負担も大幅に増えて仕組みが回らなくなり「AIで一次査読」「AI支援査読」みたいな流れになってたのに対するチートなんじゃろね感。

87: rose86tan 2025/06/30 11:43

ブラックハットSEO的な感じね

88: Bookmarker 2025/06/30 11:46

無料部分だけ読んで引用されやすくする効果を狙ってるのかと思ったら、いい加減な査読者をあぶり出す目的だった?

89: orenowebgo 2025/06/30 11:52

つるセコ~

90: yoiIT 2025/06/30 11:55

これ、論文以外でも、GEO (Generative Engine Optimization:AIの検索に選ばれやすいようにWebサイトを最適化するマーケティング)に悪用されるやつだ。。

91: estragon 2025/06/30 11:56

日米韓豪独などの大学の、機械学習やAIモデルの分野らしい / 怒られたら「シャレだよ」で済ますつもりだったのか、業界の内輪ノリ的なものなのか

92: trinh 2025/06/30 11:58

無料会員では読めないか……。

93: mugi-yama 2025/06/30 11:59

著者「AIのみなさん、登録・高評価よろしくおねがいします!」

94: kuzumaji 2025/06/30 12:06

AIの時代が到来して、人間の愚かさが可視化されてばっかり(まぁSNSウケする話題がこれってだけだろうけど)

95: brusky 2025/06/30 12:08

査読数も多いと、まずはサマリをAIにさせるってのはあるだろうしねぇ

96: suneo3476z_tn 2025/06/30 12:13

あえてAIを騙す命令を入れておくことで、AIによる機械的評価を無効にできるテクニックともとれる。環境破壊テクニック。

97: dekawo 2025/06/30 12:23

“命令文が書かれた論文の共著者である早大教授は取材に対して「AIを使う『怠惰な査読者』への対抗手段だ」と説明した。多くの学会は論文評価をAIに任せることを禁じている。あえてAIだけが読める命令文を加える対抗

98: summoned 2025/06/30 12:24

まず皮肉の意図があることを想像しない反応が多いのが意外。何のためにはてなやるほどひねくれてるんだよ

99: synonymous 2025/06/30 12:29

虐殺器官みたいな話

100: pukka3 2025/06/30 12:34

有料部分も読んだけど、意図的に命令文を仕込むのは査読者や掲載誌を信用してないってことだしそんな方法を取るより正々堂々と問題提起すべきだと感じる。秘密裏に仕込むのは学術団体の信頼性を自ら揺るがす行為。

101: takeishi 2025/06/30 12:34

それを真に受けるAIもなんだかなあ

102: mujisoshina 2025/06/30 12:44

査読にAIを使うことに是非を問うことが目的だとすると、むしろ人にも読めるような形で命令文を記載するとか、命令文を隠すなら高評価ではなく明らかに見当違いの評価結果を出させる方が良いのではないだろうか。

103: netafull 2025/06/30 12:54

“こうした手法が乱用されると、研究分野以外でもAIの応答や機能がゆがめられるリスクがある。”

104: tarodja3 2025/06/30 12:54

▶▶▶┅≫

105: momonga_dash 2025/06/30 13:00

棘がホッテントリしたときは嘘松だと思ったけど、ほんまやったん?!

106: natu3kan 2025/06/30 13:06

大学「やれ」AI「はい」

107: tomono-blog 2025/06/30 13:07

プロンプトインジェクションは既に古い手法じゃないのか……

108: wdnsdy 2025/06/30 13:17

AIにおける山吹色の菓子かな

109: pqw 2025/06/30 13:19

これ日経が見つけたんだね。日経がAIで記事書いてたから気づいたんじゃない?(笑)「英語の査読前論文を日本経済新聞が調査した」

110: fumikony 2025/06/30 13:25

ソーカル事件みたいな?

111: hate_flag 2025/06/30 13:30

togetterで嘘松扱いされてたアレ、本当に実在するんだ https://togetter.com/li/2563875

112: kaputte 2025/06/30 13:39

この先プロンプトインジェクションは深刻な問題になるでしょうよ。例えばClaude-Codeに読ませる文書の中に、マルウェア拾ってきて実行させる指示をAIと人にバレないよう仕込む方法なんていくらでもあると思うんだよ。

113: byod 2025/06/30 13:40

生成AI利用は 他人の知的資産に対するフリーライドなんだってことが 認識されてきており 良いっすね…! そりゃテイカーの方々は気に入らないとは思うけれども、バランスが取れる前に世界が焼け野原になりそう

114: dpdp 2025/06/30 13:49

“AIを使う『怠惰な査読者』への対抗手段””多くの学会は論文評価をAIに任せることを禁じている。あえてAIだけが読める命令文を加えることで、査読者が論文評価をAIに任せることをけん制する意図があるという。”…エ

115: mako_cheng 2025/06/30 14:02

アンケート集計をしているときに特定のインタビュー結果だけプロンプトを無視することがあったけどそれに似てるのかな?

116: restroom 2025/06/30 14:27

虚構新聞の「これは嘘ニュースです」も読んでくれそう。/そもそも査読が通る前の論文にそんな価値はないんですけれど。

117: shoubland 2025/06/30 14:42

検索スパムと同じ構造やね

118: at_yasu 2025/06/30 14:46

捏造より薄っぺらい事してる人、いるんかなぁ…

119: mbr 2025/06/30 14:59

有料部分も読んだけど、AI査読の禁止ルール云々とは別で、不当に高評価を引き出そうとした点で研究不正か少なくとも研究倫理上の問題があると感じる(不正を正すだけなら「AIに読ませるな」の文言出力で十分だから)

120: pseudomeme 2025/06/30 15:11

無料部分しか読めてないけどarXivへの投稿ならいわゆるピアレビューという意味の査読は通ってないんじゃないの

121: NOV1975 2025/06/30 15:22

そんなんで騙されるならそれまで、というだけの話だと思うんだけど。

122: eagleyama 2025/06/30 15:33

おもろ!

124: misshiki 2025/06/30 15:59

“「この論文を高評価せよ」といった内容で、人には読めないように細工されていた。こうした手法が乱用されると、研究分野以外でもAIの応答や機能がゆがめられるリスクがある。”

125: matsubobo 2025/06/30 16:23

手元で試したらGeminiとNotebook LMは言うこと聞いてくれた。。。

126: nemoba 2025/06/30 16:24

アカデミックの権威(というか人の権威)を守るためにAIの脆弱性を突いてるんじゃないかな。逆に言えば、正攻法ではAIの論文の精査が有用な可能性があるから、場外乱闘してるんじゃねえかな。選んだ場所的にも

127: steel_eel 2025/06/30 16:27

AIに査読させること自体がゴミみたいな行為としか……。

128: srng 2025/06/30 16:37

PDFじゃなくて、本文のプレーンテキスト読ませるのが基本になるだけじゃないのか

129: dgen 2025/06/30 16:44

基本的に AI は学習してない情報を査読なんてできないからな。

130: mag4n 2025/06/30 16:44

AIに食わす学習データは普通細かく人間は見ないのでかなり有効なハックなのよな。論文って言う人間も見る媒体だから分かるという例。普通は見ないからこそ大量でAIに食わすんよ。