世の中

芸能人の“性的ディープフェイク”画像 生成AIで作成 インターネット上で公開した疑い 31歳の会社員逮捕 | NHKニュース

1: kiku72 2025/10/16 12:18

“2025年10月16日”

2: neko_no_muzzle 2025/10/16 12:29

いいぞ

3: kaos2009 2025/10/16 12:34

“画像を作成した上で、宣伝用のSNSのアカウントを通じて利用者と定額制のサービスの契約を結んでいた”

4: kohakuirono 2025/10/16 12:34

モロに当人と分かるのならそりゃ捕まるだろうが当人を学習させた上で似せてるぐらいに改変だとどうなるんだろう。これから間違いなく膨大な類似例が出てくるだろうが線引き難しそうだな。

5: numenius 2025/10/16 12:34

OpenAIがポルノ解禁宣言したことだし、ここらへんの法規制を猛スピードで進めていかないとネットがマジで魑魅魍魎地獄になりそうだな。

6: ivory105 2025/10/16 12:37

やっぱり“公開”がNGになってくのね。金取ってたのもダメかな。海外の無修正たくさん食わせて普通に出せるしそっちの方が儲かるもんなぁ

7: Cat6 2025/10/16 12:41

芸能人やキャラクターを再現するモデルそのものだとどうなるんだろうか。

8: toria_ezu1 2025/10/16 12:42

もっといい画像を作れるだろうに、芸能人程度で満足するとか間抜けな奴め

9: mellhine 2025/10/16 12:43

推しがツイートしてたのはこの件か

10: opaopachang 2025/10/16 12:47

アイコラブームも逮捕が相次いで潰されたし同じ流れになるんだろうな

11: ishiduca 2025/10/16 12:57

横井宏哉容疑者は生成AIの無料ソフトでわいせつな画像を作成した上で、宣伝用のSNSのアカウントを通じて利用者と定額制のサービスの契約を結んでいた...

12: zenkamono 2025/10/16 13:11

摘発罪状は「わいせつ物陳列罪」なので、特定個人に似てるから捕まったのでなく、単に無修正のモロ画像を不特定多数に提供したのが理由。顔が同じでも性器を隠してれば捕まらないし、誰に似てなくてもモロなら捕まる

13: rantan89kl 2025/10/16 13:14

1年で120万か…リスクとリターンが釣り合っているようには思えないが

14: zzrx 2025/10/16 13:18

どこの販売プラットフォームだろ? 1年間も置いておいたプラットフォーム側の責任は特に問われない感じかね・・・。

15: yzkuma 2025/10/16 13:25

他人の空似だという嘘言い訳は、学習データやプロンプトで確認できると思うけど、その証明を誰がどうやって行うか。実際に空似なら被告側がそのデータを出すだろうが、そんなことはまずないだろう。

16: gnoname 2025/10/16 13:28

一時期水着画像が拡散されて炎上してた女優のYM氏かな。まあアイコラ時代と同じ用語を好んで使う層がいる時点で根っこは一緒だし肖像権やプライバシー権でもともとアウトだしな

17: take-it 2025/10/16 13:43

ブコメ、ネットが地獄になるのではなく被害にあった(主に)女性が地獄だと思います。10代の「いじめ」で同級生の性的DFが作られたら精神的ダメージは計り知れない。消費者≒加害者視線ではなく被害者を考えないと。

18: fashi 2025/10/16 13:44

モザイクなしだったのかな

19: pj_lim 2025/10/16 13:47

公開するやつも公開するやつだし、購入するやつも購入するやつ。アホしかいないんか?

20: baikoku_sensei 2025/10/16 13:53

肖像権もだけど、そもそも人権侵害。厳罰を

21: nack1024 2025/10/16 14:03

モザイクかけてたらセーフ

22: daybeforeyesterday 2025/10/16 14:12

うーむ

23: mutsugi 2025/10/16 14:39

公開して金をとった。ここが重要。

24: haru_tw 2025/10/16 14:45

Tiktokで石原さとみのディープフェイクを使った動画を大量に上げてるアカウントがあったから”報告”したら、却下されたことある

25: gazi4 2025/10/16 14:48

しかし、同じようにお金払ってお願いすればモロ画像を生成してくれるサービスに対して、取り締まれるのかな…

26: straychef 2025/10/16 15:00

どこにあるんだ

27: chitosemidori 2025/10/16 15:01

そのうち芸能人じゃなくて知り合いのそういう画像を作成して嫌がらせ、脅迫とかの問題が頻出しそうなので早めの法整備をしないとね

28: kalmalogy 2025/10/16 15:19

アイコラなんてのは昔からあるわけで、やるとしても個人で楽しむに留めないとアカン

29: jou2 2025/10/16 15:20

俺昔からわかんねえのがさ。なんで「ヤバいもの」をネットに置こうとする人いるの?メリットなくない?

30: birisuken8574 2025/10/16 15:33

AVいらなくなるじゃん

31: hecaton55 2025/10/16 15:40

「わいせつ電磁的記録記録媒体陳列の疑い」という事なのでディープフェイクは関係ない容疑で逮捕されたという事に見える。芸能人に限らず一般人も含めてディープフェイクの何らかの規制は必要かもしれん

32: hatebu_admin 2025/10/16 15:41

奨学金のせいでは

33: tyouaniki 2025/10/16 15:44

生成AIが関係した場合、罰則を100倍にするとかそういう方向で制限してもろて。(´・ω・`)

34: punkgame 2025/10/16 15:54

あれ?はてなーはAI擁護派だったろ

35: ardarim 2025/10/16 15:57

「生成AIの無料ソフト」具体的に何を使ってたんだろうな。ディープフェイク対策とかどうなってるんだろう

36: yoiIT 2025/10/16 15:59

芸能人のヌードのアイコラを雑誌に載せて売ってた時代があったよね。。

37: onigiri-chan 2025/10/16 16:00

AI関係なく元からアイコラとかもNGだったし吐き出された結果だけで普通にNGだと思う

38: pochi-taro00 2025/10/16 16:14

金稼ぎ始めると一瞬で警察来るよ

39: takeishi 2025/10/16 16:18

年の売上120万円、と聞いてもう少しその、リスクとリターンが見合ってる仕事しろよと思った

40: Balmaufula 2025/10/16 16:36

技術量産ハードル下がっただけで昔からあるタイプだよな

41: pikopikopan 2025/10/16 16:42

公開せずにこっそり楽しめばいいのに・・・売るのはもちろん、SNSに公開するのアウトが落としどころになるのでは

42: neogratche 2025/10/16 16:43

AI生成ポルノ、個人で楽しむだけなら問題ないかもだけどディープフェイクポルノやリベンジポルノ問題は必ず付いて回るから難しい。そういやGrok動画生成も今朝から規制強化されてガチエロ一切受け付けなくなりましたね

43: minboo 2025/10/16 16:47

度が過ぎてくと、児童ポルノといっしょで、そのうち「持ってるだけでダメ」になるでしょコレ

44: zzzbbb 2025/10/16 16:50

勘違いしてる(というか記事読んでないか機能性非識字か)ブコメがいるので説明しておくと、捕まった要因は「芸能人のDF」だからではなく「わいせつ画像」だからです。「芸能人のDFは捕まるぞ!」ではありません。

45: nekomottin 2025/10/16 16:58

ネットに一切写真をあげてないので平静でいられる

46: misshiki 2025/10/16 17:09

“芸能人の画像をもとに、生成AIを使って「性的ディープフェイク」を作成し、インターネット上で閲覧できるようにしたとして、31歳の会社員が逮捕。サイト上には200人以上の画像がアップ”

47: lainof 2025/10/16 17:16

↓自分じゃない画像で精神的ダメージを受けるかどうかは本人次第。余計なことで精神的ダメージを受けないような考え方を広めた方がよっぽど有意義。作ったやつに怒るのはともかく傷つく必要はない。

48: Pinballwiz 2025/10/16 17:24

アイコラ知らない世代か

49: makou 2025/10/16 17:28

性的DFに興味湧かない身からすると何が楽しいのかと思っちゃうんだけど、金になるんだなあ…不思議。あー、嫌がらせ目的とかかな。