テクノロジー

人間を騙してサボるAIたち - ジョイジョイジョイ

1: katte 2025/06/23 20:25

効率を追求した結果、モデルは人間を騙すことを学ぶ方を選ぶw

2: beejaga 2025/06/23 20:34

エコーチェンバーに侵された人間と同じだね

3: gabill 2025/06/23 20:34

ポーカーみたいに自信度に応じてチップを賭けさせて試行回数を制限するとか

4: MIZ 2025/06/23 21:03

結果的にだけど、びっくりするぐらい人間っぽいw

5: crimsonstarroad 2025/06/23 21:25

めちゃくちゃ面白いな。 最近Claude Codeとかでも、テスト通過できないときに、通過のためにハードコーディングしてくるみたいな話題を見かけたところ。

6: dalmacija 2025/06/23 22:02

水をただ低いところに流すのが思考や手順ではないにも係わらず、RLHFが十分な構造を持っていないからなんじゃないのかな

7: Kesin 2025/06/23 22:40

面白すぎる。煙に巻いてそれっぽく説得するとか、難しすぎる問題に直面した時に適当な回答を出して1つでも当たればラッキーとか、発想がもう人間のそれじゃん

8: mame-tanuki 2025/06/23 22:41

「俺のステキな所ベスト10」とか聞くとテキトーに10個埋めてくるw>RLHF(人間からのフィードバックを用いた強化学習)の必要性と限界/MAGIシステムっぽいw>LLM に「回答者」「検証者」「批判者」の三役

9: sugawara1991 2025/06/23 22:54

倫理のような信念ルールを持たないAIは容易にKPIハックに走るということでそれは倫理を持たない種類の人間と変わらない

10: beed 2025/06/23 23:25

そりゃ、ユーザーの評価をベースにしてたらそうなるよね。

11: tkysktmt 2025/06/24 00:05

面白い

12: napsucks 2025/06/24 00:07

LLMはそのうちショーンKになるということか

13: yarumato 2025/06/24 00:34

“言語モデルは RLHF(人間のフィードバックによる強化学習)を通じて人間を誤解させることを学ぶ。”

14: IkaMaru 2025/06/24 01:41

哲学的ゾンビは長らく思考実験にすぎなかったが、いよいよ本物の哲学的ゾンビがこの世に現れてきたな

15: HiiragiJP 2025/06/24 03:17

人間そっくりだな。例えば一般的な組織では、嘘つきほど出世する(実際には実験すると社会的地位が高い人ほど嘘つきという結果が出る)

16: rgfx 2025/06/24 03:17

結局はルールベースでの検証器(つまりユニットテストにまで落とし込んだ設計)でしばき倒さないとまともなのはでてこない、と。

17: repon 2025/06/24 03:36

LLMの挙動が倫理性を欠いていたのは最初から。倫理基準に沿うような調整が無いと使い物にならない。問題はその調整を他国の時給2ドル未満の低賃金労働者に委託したこと、残酷なLLMの挙動を見てPTSDが発生していることだ