世の中

芸能人の“性的ディープフェイク”画像 生成AIで作成 インターネット上で公開した疑い 31歳の会社員逮捕 | NHKニュース

1: kiku72 2025/10/16 12:18

“2025年10月16日”

2: neko_no_muzzle 2025/10/16 12:29

いいぞ

3: kaos2009 2025/10/16 12:34

“画像を作成した上で、宣伝用のSNSのアカウントを通じて利用者と定額制のサービスの契約を結んでいた”

4: kohakuirono 2025/10/16 12:34

モロに当人と分かるのならそりゃ捕まるだろうが当人を学習させた上で似せてるぐらいに改変だとどうなるんだろう。これから間違いなく膨大な類似例が出てくるだろうが線引き難しそうだな。

5: numenius 2025/10/16 12:34

OpenAIがポルノ解禁宣言したことだし、ここらへんの法規制を猛スピードで進めていかないとネットがマジで魑魅魍魎地獄になりそうだな。

6: ivory105 2025/10/16 12:37

やっぱり“公開”がNGになってくのね。金取ってたのもダメかな。海外の無修正たくさん食わせて普通に出せるしそっちの方が儲かるもんなぁ

7: Cat6 2025/10/16 12:41

芸能人やキャラクターを再現するモデルそのものだとどうなるんだろうか。

8: toria_ezu1 2025/10/16 12:42

もっといい画像を作れるだろうに、芸能人程度で満足するとか間抜けな奴め

9: mellhine 2025/10/16 12:43

推しがツイートしてたのはこの件か

10: opaopachang 2025/10/16 12:47

アイコラブームも逮捕が相次いで潰されたし同じ流れになるんだろうな

11: ishiduca 2025/10/16 12:57

横井宏哉容疑者は生成AIの無料ソフトでわいせつな画像を作成した上で、宣伝用のSNSのアカウントを通じて利用者と定額制のサービスの契約を結んでいた...

12: zenkamono 2025/10/16 13:11

摘発罪状は「わいせつ物陳列罪」なので、特定個人に似てるから捕まったのでなく、単に無修正のモロ画像を不特定多数に提供したのが理由。顔が同じでも性器を隠してれば捕まらないし、誰に似てなくてもモロなら捕まる

13: rantan89kl 2025/10/16 13:14

1年で120万か…リスクとリターンが釣り合っているようには思えないが

14: zzrx 2025/10/16 13:18

どこの販売プラットフォームだろ? 1年間も置いておいたプラットフォーム側の責任は特に問われない感じかね・・・。

15: yzkuma 2025/10/16 13:25

他人の空似だという嘘言い訳は、学習データやプロンプトで確認できると思うけど、その証明を誰がどうやって行うか。実際に空似なら被告側がそのデータを出すだろうが、そんなことはまずないだろう。

16: gnoname 2025/10/16 13:28

一時期水着画像が拡散されて炎上してた女優のYM氏かな。まあアイコラ時代と同じ用語を好んで使う層がいる時点で根っこは一緒だし肖像権やプライバシー権でもともとアウトだしな

17: take-it 2025/10/16 13:43

ブコメ、ネットが地獄になるのではなく被害にあった(主に)女性が地獄だと思います。10代の「いじめ」で同級生の性的DFが作られたら精神的ダメージは計り知れない。消費者≒加害者視線ではなく被害者を考えないと。

18: fashi 2025/10/16 13:44

モザイクなしだったのかな

19: pj_lim 2025/10/16 13:47

公開するやつも公開するやつだし、購入するやつも購入するやつ。アホしかいないんか?

20: baikoku_sensei 2025/10/16 13:53

肖像権もだけど、そもそも人権侵害。厳罰を

21: nack1024 2025/10/16 14:03

モザイクかけてたらセーフ

22: daybeforeyesterday 2025/10/16 14:12

うーむ

23: mutsugi 2025/10/16 14:39

公開して金をとった。ここが重要。

24: haru_tw 2025/10/16 14:45

Tiktokで石原さとみのディープフェイクを使った動画を大量に上げてるアカウントがあったから”報告”したら、却下されたことある

25: gazi4 2025/10/16 14:48

しかし、同じようにお金払ってお願いすればモロ画像を生成してくれるサービスに対して、取り締まれるのかな…

26: straychef 2025/10/16 15:00

どこにあるんだ

27: chitosemidori 2025/10/16 15:01

そのうち芸能人じゃなくて知り合いのそういう画像を作成して嫌がらせ、脅迫とかの問題が頻出しそうなので早めの法整備をしないとね

28: kalmalogy 2025/10/16 15:19

アイコラなんてのは昔からあるわけで、やるとしても個人で楽しむに留めないとアカン

29: jou2 2025/10/16 15:20

俺昔からわかんねえのがさ。なんで「ヤバいもの」をネットに置こうとする人いるの?メリットなくない?

30: birisuken8574 2025/10/16 15:33

AVいらなくなるじゃん

31: hecaton55 2025/10/16 15:40

「わいせつ電磁的記録記録媒体陳列の疑い」という事なのでディープフェイクは関係ない容疑で逮捕されたという事に見える。芸能人に限らず一般人も含めてディープフェイクの何らかの規制は必要かもしれん

32: hatebu_admin 2025/10/16 15:41

奨学金のせいでは

33: tyouaniki 2025/10/16 15:44

生成AIが関係した場合、罰則を100倍にするとかそういう方向で制限してもろて。(´・ω・`)

34: punkgame 2025/10/16 15:54

あれ?はてなーはAI擁護派だったろ

35: ardarim 2025/10/16 15:57

「生成AIの無料ソフト」具体的に何を使ってたんだろうな。ディープフェイク対策とかどうなってるんだろう

36: yoiIT 2025/10/16 15:59

芸能人のヌードのアイコラを雑誌に載せて売ってた時代があったよね。。

37: onigiri-chan 2025/10/16 16:00

AI関係なく元からアイコラとかもNGだったし吐き出された結果だけで普通にNGだと思う

38: pochi-taro00 2025/10/16 16:14

金稼ぎ始めると一瞬で警察来るよ

39: takeishi 2025/10/16 16:18

年の売上120万円、と聞いてもう少しその、リスクとリターンが見合ってる仕事しろよと思った

40: Balmaufula 2025/10/16 16:36

技術量産ハードル下がっただけで昔からあるタイプだよな

41: pikopikopan 2025/10/16 16:42

公開せずにこっそり楽しめばいいのに・・・売るのはもちろん、SNSに公開するのアウトが落としどころになるのでは

42: neogratche 2025/10/16 16:43

AI生成ポルノ、個人で楽しむだけなら問題ないかもだけどディープフェイクポルノやリベンジポルノ問題は必ず付いて回るから難しい。そういやGrok動画生成も今朝から規制強化されてガチエロ一切受け付けなくなりましたね

43: minboo 2025/10/16 16:47

度が過ぎてくと、児童ポルノといっしょで、そのうち「持ってるだけでダメ」になるでしょコレ

44: zzzbbb 2025/10/16 16:50

勘違いしてる(というか記事読んでないか機能性非識字か)ブコメがいるので説明しておくと、捕まった要因は「芸能人のDF」だからではなく「わいせつ画像」だからです。「芸能人のDFは捕まるぞ!」ではありません。

45: nekomottin 2025/10/16 16:58

ネットに一切写真をあげてないので平静でいられる

46: misshiki 2025/10/16 17:09

“芸能人の画像をもとに、生成AIを使って「性的ディープフェイク」を作成し、インターネット上で閲覧できるようにしたとして、31歳の会社員が逮捕。サイト上には200人以上の画像がアップ”

47: lainof 2025/10/16 17:16

↓自分じゃない画像で精神的ダメージを受けるかどうかは本人次第。余計なことで精神的ダメージを受けないような考え方を広めた方がよっぽど有意義。作ったやつに怒るのはともかく傷つく必要はない。

48: Pinballwiz 2025/10/16 17:24

アイコラ知らない世代か

49: makou 2025/10/16 17:28

性的DFに興味湧かない身からすると何が楽しいのかと思っちゃうんだけど、金になるんだなあ…不思議。あー、嫌がらせ目的とかかな。

50: good2nd 2025/10/16 17:58

前に同級生の卒アルでやった奴がいた時「絵が上手いやつなら描けるからAI関係ない」とか言い出す人がいっぱいいて戦慄した。猥褻物で行ったのは他に手がないからじゃないの?はやく法整備を。

51: RyanRyan 2025/10/16 18:04

正直今魑魅魍魎になってないのはバカに見つかってないだけよね。たぶん小規模コミュニティ内では派手に出回ってると思う。

52: fantascape 2025/10/16 18:11

一般向けのAI利用はメリットよりデメリットのほうが大きくなってしまったのでは。AI利用は特定分野に限定したほうがよさそう。

53: kamezo 2025/10/16 18:43

〈わいせつ電磁的記録記録媒体陳列の疑い〉芸能人とかディープフェイクとかで罪がより重くなったりはしないのかな。現状はそうならないんだろうな。

54: s17er 2025/10/16 18:44

「たまたま」自分に似た画像が流布されるのは恐怖だろう。もうちょいマシなAI活用方法ないのか

55: htnmiki 2025/10/16 18:56

有名人でなくても私のようなおっさんでもやられたらダメージは計り知れないだろやべーぞ

56: byaa0001 2025/10/16 19:10

現行法で逮捕できるんだ、よかった、と思ったら猥褻物陳列罪……?これだと謎モザイク的なあれで回避されて個人の尊厳と権利を守ることはできないのか?法律整備は急務か

57: augsUK 2025/10/16 19:51

立法は遅れているので、そうとうにダメな事例しか規制できない状況。別に性的でなくても嫌がらせはできるけど、そうなるといよいよ法律がない。

58: peach_333 2025/10/16 20:01

XでPateronとかに誘導して売りまくってるやつめちゃくちゃいるよな

59: shoechang 2025/10/16 20:41

行き過ぎてすべてがディーフフェイクじゃない?ってなったら嫌がらせとして効力があるのか写真週刊誌とか成り立つのか気になる

60: airstation 2025/10/16 20:51

呼称は「性的フェイク画像」じゃダメなんかな。ディープフェイクという呼称がピンとこない

61: mopx 2025/10/16 20:54

ピンタレストの画像に生成物が混ざるようになり、気分を害す事が増えた。AI生成は別にいいが、肖像権を侵害するのはマジでやめてほしい。

62: cloverstudioceo 2025/10/16 21:09

AIで架空のインフルエンサー運用してた時期あったけど、ディープフェイクのお願いは沢山来てた。小銭稼ぎにしかならんから断ってたし、ヨーロッパだと結構重罪なんでまぁやらんわなー。

63: keren71 2025/10/16 21:47

昔はチマチマフォトショップしてたのにね

64: ochikun 2025/10/16 22:25

アイコラじゃないの?

65: julienataru 2025/10/16 22:33

自分の顔に筋肉ムキムキの体を合成するやつとかいないのかな。

66: Ingunial 2025/10/16 22:51

芸能人からAIで作ればいいんだ。

67: magi00 2025/10/16 22:51

純粋なディープフェイクの悪用という一点で裁けるのは現状の刑法だと名誉棄損罪くらいしかない。名誉を棄損するというまさにど真ん中の内容ではあるけど。

68: shira0211tama 2025/10/16 23:48

芸能人だと目立つから逮捕されたに曲解して街で見つけたあの子とかやり出すだけだから早く規制

69: mkotatsu 2025/10/17 00:58

虐めでフェイクエロ画像拡散されて、10年後に知らない人に見つけられたりしたらなどと思うと…一生が狂うものだから本当にやめてほしい。利用者の理性を信用できないし、画像生成AIのエロ利用に強い罰則ないと怖い

70: seachel 2025/10/17 08:25

刑法175条案件なので芸能人や生成AI利用に限らず絵でも写真コラでも同じやつ。生成AIでそれらが容易になった事は問題だが、それらは即ち生成AIという道具を悪魔にするものではない。フォトショが悪魔ではないようにね。

71: okinawazenzai 2025/10/17 08:58

新しいPC買ったから、動画生成AIにも手出してみたんだけど、ちょっとエッチなやつだと思った以上に簡単に出てくるぞ。自分の画像を元に出したんだけどまあまあリアルで怖くなったのでそのあと触って無い。

72: daira4000 2025/10/17 10:03

法整備はよ。誰か自爆覚悟で政治家のDF作りまくったら話が速くなるんじゃないか。

73: tg30yen 2025/10/17 15:41

>法務省はことし4月、作成のもとになった卒業アルバムやSNS上の写真などの子どもが実在することが確認されれば児童ポルノに該当しうるとして、法規制の対象になり得るとの見解を示しました。