“2025年10月16日”
いいぞ
“画像を作成した上で、宣伝用のSNSのアカウントを通じて利用者と定額制のサービスの契約を結んでいた”
モロに当人と分かるのならそりゃ捕まるだろうが当人を学習させた上で似せてるぐらいに改変だとどうなるんだろう。これから間違いなく膨大な類似例が出てくるだろうが線引き難しそうだな。
OpenAIがポルノ解禁宣言したことだし、ここらへんの法規制を猛スピードで進めていかないとネットがマジで魑魅魍魎地獄になりそうだな。
やっぱり“公開”がNGになってくのね。金取ってたのもダメかな。海外の無修正たくさん食わせて普通に出せるしそっちの方が儲かるもんなぁ
芸能人やキャラクターを再現するモデルそのものだとどうなるんだろうか。
もっといい画像を作れるだろうに、芸能人程度で満足するとか間抜けな奴め
推しがツイートしてたのはこの件か
アイコラブームも逮捕が相次いで潰されたし同じ流れになるんだろうな
横井宏哉容疑者は生成AIの無料ソフトでわいせつな画像を作成した上で、宣伝用のSNSのアカウントを通じて利用者と定額制のサービスの契約を結んでいた...
摘発罪状は「わいせつ物陳列罪」なので、特定個人に似てるから捕まったのでなく、単に無修正のモロ画像を不特定多数に提供したのが理由。顔が同じでも性器を隠してれば捕まらないし、誰に似てなくてもモロなら捕まる
1年で120万か…リスクとリターンが釣り合っているようには思えないが
どこの販売プラットフォームだろ? 1年間も置いておいたプラットフォーム側の責任は特に問われない感じかね・・・。
他人の空似だという嘘言い訳は、学習データやプロンプトで確認できると思うけど、その証明を誰がどうやって行うか。実際に空似なら被告側がそのデータを出すだろうが、そんなことはまずないだろう。
一時期水着画像が拡散されて炎上してた女優のYM氏かな。まあアイコラ時代と同じ用語を好んで使う層がいる時点で根っこは一緒だし肖像権やプライバシー権でもともとアウトだしな
ブコメ、ネットが地獄になるのではなく被害にあった(主に)女性が地獄だと思います。10代の「いじめ」で同級生の性的DFが作られたら精神的ダメージは計り知れない。消費者≒加害者視線ではなく被害者を考えないと。
モザイクなしだったのかな
公開するやつも公開するやつだし、購入するやつも購入するやつ。アホしかいないんか?
肖像権もだけど、そもそも人権侵害。厳罰を
モザイクかけてたらセーフ
うーむ
公開して金をとった。ここが重要。
Tiktokで石原さとみのディープフェイクを使った動画を大量に上げてるアカウントがあったから”報告”したら、却下されたことある
しかし、同じようにお金払ってお願いすればモロ画像を生成してくれるサービスに対して、取り締まれるのかな…
どこにあるんだ
そのうち芸能人じゃなくて知り合いのそういう画像を作成して嫌がらせ、脅迫とかの問題が頻出しそうなので早めの法整備をしないとね
アイコラなんてのは昔からあるわけで、やるとしても個人で楽しむに留めないとアカン
俺昔からわかんねえのがさ。なんで「ヤバいもの」をネットに置こうとする人いるの?メリットなくない?
AVいらなくなるじゃん
「わいせつ電磁的記録記録媒体陳列の疑い」という事なのでディープフェイクは関係ない容疑で逮捕されたという事に見える。芸能人に限らず一般人も含めてディープフェイクの何らかの規制は必要かもしれん
奨学金のせいでは
生成AIが関係した場合、罰則を100倍にするとかそういう方向で制限してもろて。(´・ω・`)
あれ?はてなーはAI擁護派だったろ
「生成AIの無料ソフト」具体的に何を使ってたんだろうな。ディープフェイク対策とかどうなってるんだろう
芸能人のヌードのアイコラを雑誌に載せて売ってた時代があったよね。。
AI関係なく元からアイコラとかもNGだったし吐き出された結果だけで普通にNGだと思う
金稼ぎ始めると一瞬で警察来るよ
年の売上120万円、と聞いてもう少しその、リスクとリターンが見合ってる仕事しろよと思った
技術量産ハードル下がっただけで昔からあるタイプだよな
公開せずにこっそり楽しめばいいのに・・・売るのはもちろん、SNSに公開するのアウトが落としどころになるのでは
AI生成ポルノ、個人で楽しむだけなら問題ないかもだけどディープフェイクポルノやリベンジポルノ問題は必ず付いて回るから難しい。そういやGrok動画生成も今朝から規制強化されてガチエロ一切受け付けなくなりましたね
度が過ぎてくと、児童ポルノといっしょで、そのうち「持ってるだけでダメ」になるでしょコレ
勘違いしてる(というか記事読んでないか機能性非識字か)ブコメがいるので説明しておくと、捕まった要因は「芸能人のDF」だからではなく「わいせつ画像」だからです。「芸能人のDFは捕まるぞ!」ではありません。
ネットに一切写真をあげてないので平静でいられる
“芸能人の画像をもとに、生成AIを使って「性的ディープフェイク」を作成し、インターネット上で閲覧できるようにしたとして、31歳の会社員が逮捕。サイト上には200人以上の画像がアップ”
↓自分じゃない画像で精神的ダメージを受けるかどうかは本人次第。余計なことで精神的ダメージを受けないような考え方を広めた方がよっぽど有意義。作ったやつに怒るのはともかく傷つく必要はない。
アイコラ知らない世代か
性的DFに興味湧かない身からすると何が楽しいのかと思っちゃうんだけど、金になるんだなあ…不思議。あー、嫌がらせ目的とかかな。
芸能人の“性的ディープフェイク”画像 生成AIで作成 インターネット上で公開した疑い 31歳の会社員逮捕 | NHKニュース
“2025年10月16日”
いいぞ
“画像を作成した上で、宣伝用のSNSのアカウントを通じて利用者と定額制のサービスの契約を結んでいた”
モロに当人と分かるのならそりゃ捕まるだろうが当人を学習させた上で似せてるぐらいに改変だとどうなるんだろう。これから間違いなく膨大な類似例が出てくるだろうが線引き難しそうだな。
OpenAIがポルノ解禁宣言したことだし、ここらへんの法規制を猛スピードで進めていかないとネットがマジで魑魅魍魎地獄になりそうだな。
やっぱり“公開”がNGになってくのね。金取ってたのもダメかな。海外の無修正たくさん食わせて普通に出せるしそっちの方が儲かるもんなぁ
芸能人やキャラクターを再現するモデルそのものだとどうなるんだろうか。
もっといい画像を作れるだろうに、芸能人程度で満足するとか間抜けな奴め
推しがツイートしてたのはこの件か
アイコラブームも逮捕が相次いで潰されたし同じ流れになるんだろうな
横井宏哉容疑者は生成AIの無料ソフトでわいせつな画像を作成した上で、宣伝用のSNSのアカウントを通じて利用者と定額制のサービスの契約を結んでいた...
摘発罪状は「わいせつ物陳列罪」なので、特定個人に似てるから捕まったのでなく、単に無修正のモロ画像を不特定多数に提供したのが理由。顔が同じでも性器を隠してれば捕まらないし、誰に似てなくてもモロなら捕まる
1年で120万か…リスクとリターンが釣り合っているようには思えないが
どこの販売プラットフォームだろ? 1年間も置いておいたプラットフォーム側の責任は特に問われない感じかね・・・。
他人の空似だという嘘言い訳は、学習データやプロンプトで確認できると思うけど、その証明を誰がどうやって行うか。実際に空似なら被告側がそのデータを出すだろうが、そんなことはまずないだろう。
一時期水着画像が拡散されて炎上してた女優のYM氏かな。まあアイコラ時代と同じ用語を好んで使う層がいる時点で根っこは一緒だし肖像権やプライバシー権でもともとアウトだしな
ブコメ、ネットが地獄になるのではなく被害にあった(主に)女性が地獄だと思います。10代の「いじめ」で同級生の性的DFが作られたら精神的ダメージは計り知れない。消費者≒加害者視線ではなく被害者を考えないと。
モザイクなしだったのかな
公開するやつも公開するやつだし、購入するやつも購入するやつ。アホしかいないんか?
肖像権もだけど、そもそも人権侵害。厳罰を
モザイクかけてたらセーフ
うーむ
公開して金をとった。ここが重要。
Tiktokで石原さとみのディープフェイクを使った動画を大量に上げてるアカウントがあったから”報告”したら、却下されたことある
しかし、同じようにお金払ってお願いすればモロ画像を生成してくれるサービスに対して、取り締まれるのかな…
どこにあるんだ
そのうち芸能人じゃなくて知り合いのそういう画像を作成して嫌がらせ、脅迫とかの問題が頻出しそうなので早めの法整備をしないとね
アイコラなんてのは昔からあるわけで、やるとしても個人で楽しむに留めないとアカン
俺昔からわかんねえのがさ。なんで「ヤバいもの」をネットに置こうとする人いるの?メリットなくない?
AVいらなくなるじゃん
「わいせつ電磁的記録記録媒体陳列の疑い」という事なのでディープフェイクは関係ない容疑で逮捕されたという事に見える。芸能人に限らず一般人も含めてディープフェイクの何らかの規制は必要かもしれん
奨学金のせいでは
生成AIが関係した場合、罰則を100倍にするとかそういう方向で制限してもろて。(´・ω・`)
あれ?はてなーはAI擁護派だったろ
「生成AIの無料ソフト」具体的に何を使ってたんだろうな。ディープフェイク対策とかどうなってるんだろう
芸能人のヌードのアイコラを雑誌に載せて売ってた時代があったよね。。
AI関係なく元からアイコラとかもNGだったし吐き出された結果だけで普通にNGだと思う
金稼ぎ始めると一瞬で警察来るよ
年の売上120万円、と聞いてもう少しその、リスクとリターンが見合ってる仕事しろよと思った
技術量産ハードル下がっただけで昔からあるタイプだよな
公開せずにこっそり楽しめばいいのに・・・売るのはもちろん、SNSに公開するのアウトが落としどころになるのでは
AI生成ポルノ、個人で楽しむだけなら問題ないかもだけどディープフェイクポルノやリベンジポルノ問題は必ず付いて回るから難しい。そういやGrok動画生成も今朝から規制強化されてガチエロ一切受け付けなくなりましたね
度が過ぎてくと、児童ポルノといっしょで、そのうち「持ってるだけでダメ」になるでしょコレ
勘違いしてる(というか記事読んでないか機能性非識字か)ブコメがいるので説明しておくと、捕まった要因は「芸能人のDF」だからではなく「わいせつ画像」だからです。「芸能人のDFは捕まるぞ!」ではありません。
ネットに一切写真をあげてないので平静でいられる
“芸能人の画像をもとに、生成AIを使って「性的ディープフェイク」を作成し、インターネット上で閲覧できるようにしたとして、31歳の会社員が逮捕。サイト上には200人以上の画像がアップ”
↓自分じゃない画像で精神的ダメージを受けるかどうかは本人次第。余計なことで精神的ダメージを受けないような考え方を広めた方がよっぽど有意義。作ったやつに怒るのはともかく傷つく必要はない。
アイコラ知らない世代か
性的DFに興味湧かない身からすると何が楽しいのかと思っちゃうんだけど、金になるんだなあ…不思議。あー、嫌がらせ目的とかかな。