“2025年10月16日”
いいぞ
“画像を作成した上で、宣伝用のSNSのアカウントを通じて利用者と定額制のサービスの契約を結んでいた”
モロに当人と分かるのならそりゃ捕まるだろうが当人を学習させた上で似せてるぐらいに改変だとどうなるんだろう。これから間違いなく膨大な類似例が出てくるだろうが線引き難しそうだな。
OpenAIがポルノ解禁宣言したことだし、ここらへんの法規制を猛スピードで進めていかないとネットがマジで魑魅魍魎地獄になりそうだな。
やっぱり“公開”がNGになってくのね。金取ってたのもダメかな。海外の無修正たくさん食わせて普通に出せるしそっちの方が儲かるもんなぁ
芸能人やキャラクターを再現するモデルそのものだとどうなるんだろうか。
もっといい画像を作れるだろうに、芸能人程度で満足するとか間抜けな奴め
推しがツイートしてたのはこの件か
アイコラブームも逮捕が相次いで潰されたし同じ流れになるんだろうな
横井宏哉容疑者は生成AIの無料ソフトでわいせつな画像を作成した上で、宣伝用のSNSのアカウントを通じて利用者と定額制のサービスの契約を結んでいた...
摘発罪状は「わいせつ物陳列罪」なので、特定個人に似てるから捕まったのでなく、単に無修正のモロ画像を不特定多数に提供したのが理由。顔が同じでも性器を隠してれば捕まらないし、誰に似てなくてもモロなら捕まる
1年で120万か…リスクとリターンが釣り合っているようには思えないが
どこの販売プラットフォームだろ? 1年間も置いておいたプラットフォーム側の責任は特に問われない感じかね・・・。
他人の空似だという嘘言い訳は、学習データやプロンプトで確認できると思うけど、その証明を誰がどうやって行うか。実際に空似なら被告側がそのデータを出すだろうが、そんなことはまずないだろう。
一時期水着画像が拡散されて炎上してた女優のYM氏かな。まあアイコラ時代と同じ用語を好んで使う層がいる時点で根っこは一緒だし肖像権やプライバシー権でもともとアウトだしな
ブコメ、ネットが地獄になるのではなく被害にあった(主に)女性が地獄だと思います。10代の「いじめ」で同級生の性的DFが作られたら精神的ダメージは計り知れない。消費者≒加害者視線ではなく被害者を考えないと。
モザイクなしだったのかな
公開するやつも公開するやつだし、購入するやつも購入するやつ。アホしかいないんか?
肖像権もだけど、そもそも人権侵害。厳罰を
モザイクかけてたらセーフ
うーむ
公開して金をとった。ここが重要。
Tiktokで石原さとみのディープフェイクを使った動画を大量に上げてるアカウントがあったから”報告”したら、却下されたことある
しかし、同じようにお金払ってお願いすればモロ画像を生成してくれるサービスに対して、取り締まれるのかな…
どこにあるんだ
そのうち芸能人じゃなくて知り合いのそういう画像を作成して嫌がらせ、脅迫とかの問題が頻出しそうなので早めの法整備をしないとね
アイコラなんてのは昔からあるわけで、やるとしても個人で楽しむに留めないとアカン
俺昔からわかんねえのがさ。なんで「ヤバいもの」をネットに置こうとする人いるの?メリットなくない?
AVいらなくなるじゃん
「わいせつ電磁的記録記録媒体陳列の疑い」という事なのでディープフェイクは関係ない容疑で逮捕されたという事に見える。芸能人に限らず一般人も含めてディープフェイクの何らかの規制は必要かもしれん
奨学金のせいでは
生成AIが関係した場合、罰則を100倍にするとかそういう方向で制限してもろて。(´・ω・`)
あれ?はてなーはAI擁護派だったろ
「生成AIの無料ソフト」具体的に何を使ってたんだろうな。ディープフェイク対策とかどうなってるんだろう
芸能人のヌードのアイコラを雑誌に載せて売ってた時代があったよね。。
AI関係なく元からアイコラとかもNGだったし吐き出された結果だけで普通にNGだと思う
金稼ぎ始めると一瞬で警察来るよ
年の売上120万円、と聞いてもう少しその、リスクとリターンが見合ってる仕事しろよと思った
技術量産ハードル下がっただけで昔からあるタイプだよな
公開せずにこっそり楽しめばいいのに・・・売るのはもちろん、SNSに公開するのアウトが落としどころになるのでは
AI生成ポルノ、個人で楽しむだけなら問題ないかもだけどディープフェイクポルノやリベンジポルノ問題は必ず付いて回るから難しい。そういやGrok動画生成も今朝から規制強化されてガチエロ一切受け付けなくなりましたね
度が過ぎてくと、児童ポルノといっしょで、そのうち「持ってるだけでダメ」になるでしょコレ
勘違いしてる(というか記事読んでないか機能性非識字か)ブコメがいるので説明しておくと、捕まった要因は「芸能人のDF」だからではなく「わいせつ画像」だからです。「芸能人のDFは捕まるぞ!」ではありません。
ネットに一切写真をあげてないので平静でいられる
“芸能人の画像をもとに、生成AIを使って「性的ディープフェイク」を作成し、インターネット上で閲覧できるようにしたとして、31歳の会社員が逮捕。サイト上には200人以上の画像がアップ”
↓自分じゃない画像で精神的ダメージを受けるかどうかは本人次第。余計なことで精神的ダメージを受けないような考え方を広めた方がよっぽど有意義。作ったやつに怒るのはともかく傷つく必要はない。
アイコラ知らない世代か
性的DFに興味湧かない身からすると何が楽しいのかと思っちゃうんだけど、金になるんだなあ…不思議。あー、嫌がらせ目的とかかな。
前に同級生の卒アルでやった奴がいた時「絵が上手いやつなら描けるからAI関係ない」とか言い出す人がいっぱいいて戦慄した。猥褻物で行ったのは他に手がないからじゃないの?はやく法整備を。
正直今魑魅魍魎になってないのはバカに見つかってないだけよね。たぶん小規模コミュニティ内では派手に出回ってると思う。
一般向けのAI利用はメリットよりデメリットのほうが大きくなってしまったのでは。AI利用は特定分野に限定したほうがよさそう。
〈わいせつ電磁的記録記録媒体陳列の疑い〉芸能人とかディープフェイクとかで罪がより重くなったりはしないのかな。現状はそうならないんだろうな。
「たまたま」自分に似た画像が流布されるのは恐怖だろう。もうちょいマシなAI活用方法ないのか
有名人でなくても私のようなおっさんでもやられたらダメージは計り知れないだろやべーぞ
現行法で逮捕できるんだ、よかった、と思ったら猥褻物陳列罪……?これだと謎モザイク的なあれで回避されて個人の尊厳と権利を守ることはできないのか?法律整備は急務か
立法は遅れているので、そうとうにダメな事例しか規制できない状況。別に性的でなくても嫌がらせはできるけど、そうなるといよいよ法律がない。
XでPateronとかに誘導して売りまくってるやつめちゃくちゃいるよな
行き過ぎてすべてがディーフフェイクじゃない?ってなったら嫌がらせとして効力があるのか写真週刊誌とか成り立つのか気になる
呼称は「性的フェイク画像」じゃダメなんかな。ディープフェイクという呼称がピンとこない
ピンタレストの画像に生成物が混ざるようになり、気分を害す事が増えた。AI生成は別にいいが、肖像権を侵害するのはマジでやめてほしい。
AIで架空のインフルエンサー運用してた時期あったけど、ディープフェイクのお願いは沢山来てた。小銭稼ぎにしかならんから断ってたし、ヨーロッパだと結構重罪なんでまぁやらんわなー。
昔はチマチマフォトショップしてたのにね
アイコラじゃないの?
自分の顔に筋肉ムキムキの体を合成するやつとかいないのかな。
芸能人からAIで作ればいいんだ。
純粋なディープフェイクの悪用という一点で裁けるのは現状の刑法だと名誉棄損罪くらいしかない。名誉を棄損するというまさにど真ん中の内容ではあるけど。
芸能人だと目立つから逮捕されたに曲解して街で見つけたあの子とかやり出すだけだから早く規制
虐めでフェイクエロ画像拡散されて、10年後に知らない人に見つけられたりしたらなどと思うと…一生が狂うものだから本当にやめてほしい。利用者の理性を信用できないし、画像生成AIのエロ利用に強い罰則ないと怖い
刑法175条案件なので芸能人や生成AI利用に限らず絵でも写真コラでも同じやつ。生成AIでそれらが容易になった事は問題だが、それらは即ち生成AIという道具を悪魔にするものではない。フォトショが悪魔ではないようにね。
新しいPC買ったから、動画生成AIにも手出してみたんだけど、ちょっとエッチなやつだと思った以上に簡単に出てくるぞ。自分の画像を元に出したんだけどまあまあリアルで怖くなったのでそのあと触って無い。
法整備はよ。誰か自爆覚悟で政治家のDF作りまくったら話が速くなるんじゃないか。
>法務省はことし4月、作成のもとになった卒業アルバムやSNS上の写真などの子どもが実在することが確認されれば児童ポルノに該当しうるとして、法規制の対象になり得るとの見解を示しました。
芸能人の“性的ディープフェイク”画像 生成AIで作成 インターネット上で公開した疑い 31歳の会社員逮捕 | NHKニュース
“2025年10月16日”
いいぞ
“画像を作成した上で、宣伝用のSNSのアカウントを通じて利用者と定額制のサービスの契約を結んでいた”
モロに当人と分かるのならそりゃ捕まるだろうが当人を学習させた上で似せてるぐらいに改変だとどうなるんだろう。これから間違いなく膨大な類似例が出てくるだろうが線引き難しそうだな。
OpenAIがポルノ解禁宣言したことだし、ここらへんの法規制を猛スピードで進めていかないとネットがマジで魑魅魍魎地獄になりそうだな。
やっぱり“公開”がNGになってくのね。金取ってたのもダメかな。海外の無修正たくさん食わせて普通に出せるしそっちの方が儲かるもんなぁ
芸能人やキャラクターを再現するモデルそのものだとどうなるんだろうか。
もっといい画像を作れるだろうに、芸能人程度で満足するとか間抜けな奴め
推しがツイートしてたのはこの件か
アイコラブームも逮捕が相次いで潰されたし同じ流れになるんだろうな
横井宏哉容疑者は生成AIの無料ソフトでわいせつな画像を作成した上で、宣伝用のSNSのアカウントを通じて利用者と定額制のサービスの契約を結んでいた...
摘発罪状は「わいせつ物陳列罪」なので、特定個人に似てるから捕まったのでなく、単に無修正のモロ画像を不特定多数に提供したのが理由。顔が同じでも性器を隠してれば捕まらないし、誰に似てなくてもモロなら捕まる
1年で120万か…リスクとリターンが釣り合っているようには思えないが
どこの販売プラットフォームだろ? 1年間も置いておいたプラットフォーム側の責任は特に問われない感じかね・・・。
他人の空似だという嘘言い訳は、学習データやプロンプトで確認できると思うけど、その証明を誰がどうやって行うか。実際に空似なら被告側がそのデータを出すだろうが、そんなことはまずないだろう。
一時期水着画像が拡散されて炎上してた女優のYM氏かな。まあアイコラ時代と同じ用語を好んで使う層がいる時点で根っこは一緒だし肖像権やプライバシー権でもともとアウトだしな
ブコメ、ネットが地獄になるのではなく被害にあった(主に)女性が地獄だと思います。10代の「いじめ」で同級生の性的DFが作られたら精神的ダメージは計り知れない。消費者≒加害者視線ではなく被害者を考えないと。
モザイクなしだったのかな
公開するやつも公開するやつだし、購入するやつも購入するやつ。アホしかいないんか?
肖像権もだけど、そもそも人権侵害。厳罰を
モザイクかけてたらセーフ
うーむ
公開して金をとった。ここが重要。
Tiktokで石原さとみのディープフェイクを使った動画を大量に上げてるアカウントがあったから”報告”したら、却下されたことある
しかし、同じようにお金払ってお願いすればモロ画像を生成してくれるサービスに対して、取り締まれるのかな…
どこにあるんだ
そのうち芸能人じゃなくて知り合いのそういう画像を作成して嫌がらせ、脅迫とかの問題が頻出しそうなので早めの法整備をしないとね
アイコラなんてのは昔からあるわけで、やるとしても個人で楽しむに留めないとアカン
俺昔からわかんねえのがさ。なんで「ヤバいもの」をネットに置こうとする人いるの?メリットなくない?
AVいらなくなるじゃん
「わいせつ電磁的記録記録媒体陳列の疑い」という事なのでディープフェイクは関係ない容疑で逮捕されたという事に見える。芸能人に限らず一般人も含めてディープフェイクの何らかの規制は必要かもしれん
奨学金のせいでは
生成AIが関係した場合、罰則を100倍にするとかそういう方向で制限してもろて。(´・ω・`)
あれ?はてなーはAI擁護派だったろ
「生成AIの無料ソフト」具体的に何を使ってたんだろうな。ディープフェイク対策とかどうなってるんだろう
芸能人のヌードのアイコラを雑誌に載せて売ってた時代があったよね。。
AI関係なく元からアイコラとかもNGだったし吐き出された結果だけで普通にNGだと思う
金稼ぎ始めると一瞬で警察来るよ
年の売上120万円、と聞いてもう少しその、リスクとリターンが見合ってる仕事しろよと思った
技術量産ハードル下がっただけで昔からあるタイプだよな
公開せずにこっそり楽しめばいいのに・・・売るのはもちろん、SNSに公開するのアウトが落としどころになるのでは
AI生成ポルノ、個人で楽しむだけなら問題ないかもだけどディープフェイクポルノやリベンジポルノ問題は必ず付いて回るから難しい。そういやGrok動画生成も今朝から規制強化されてガチエロ一切受け付けなくなりましたね
度が過ぎてくと、児童ポルノといっしょで、そのうち「持ってるだけでダメ」になるでしょコレ
勘違いしてる(というか記事読んでないか機能性非識字か)ブコメがいるので説明しておくと、捕まった要因は「芸能人のDF」だからではなく「わいせつ画像」だからです。「芸能人のDFは捕まるぞ!」ではありません。
ネットに一切写真をあげてないので平静でいられる
“芸能人の画像をもとに、生成AIを使って「性的ディープフェイク」を作成し、インターネット上で閲覧できるようにしたとして、31歳の会社員が逮捕。サイト上には200人以上の画像がアップ”
↓自分じゃない画像で精神的ダメージを受けるかどうかは本人次第。余計なことで精神的ダメージを受けないような考え方を広めた方がよっぽど有意義。作ったやつに怒るのはともかく傷つく必要はない。
アイコラ知らない世代か
性的DFに興味湧かない身からすると何が楽しいのかと思っちゃうんだけど、金になるんだなあ…不思議。あー、嫌がらせ目的とかかな。
前に同級生の卒アルでやった奴がいた時「絵が上手いやつなら描けるからAI関係ない」とか言い出す人がいっぱいいて戦慄した。猥褻物で行ったのは他に手がないからじゃないの?はやく法整備を。
正直今魑魅魍魎になってないのはバカに見つかってないだけよね。たぶん小規模コミュニティ内では派手に出回ってると思う。
一般向けのAI利用はメリットよりデメリットのほうが大きくなってしまったのでは。AI利用は特定分野に限定したほうがよさそう。
〈わいせつ電磁的記録記録媒体陳列の疑い〉芸能人とかディープフェイクとかで罪がより重くなったりはしないのかな。現状はそうならないんだろうな。
「たまたま」自分に似た画像が流布されるのは恐怖だろう。もうちょいマシなAI活用方法ないのか
有名人でなくても私のようなおっさんでもやられたらダメージは計り知れないだろやべーぞ
現行法で逮捕できるんだ、よかった、と思ったら猥褻物陳列罪……?これだと謎モザイク的なあれで回避されて個人の尊厳と権利を守ることはできないのか?法律整備は急務か
立法は遅れているので、そうとうにダメな事例しか規制できない状況。別に性的でなくても嫌がらせはできるけど、そうなるといよいよ法律がない。
XでPateronとかに誘導して売りまくってるやつめちゃくちゃいるよな
行き過ぎてすべてがディーフフェイクじゃない?ってなったら嫌がらせとして効力があるのか写真週刊誌とか成り立つのか気になる
呼称は「性的フェイク画像」じゃダメなんかな。ディープフェイクという呼称がピンとこない
ピンタレストの画像に生成物が混ざるようになり、気分を害す事が増えた。AI生成は別にいいが、肖像権を侵害するのはマジでやめてほしい。
AIで架空のインフルエンサー運用してた時期あったけど、ディープフェイクのお願いは沢山来てた。小銭稼ぎにしかならんから断ってたし、ヨーロッパだと結構重罪なんでまぁやらんわなー。
昔はチマチマフォトショップしてたのにね
アイコラじゃないの?
自分の顔に筋肉ムキムキの体を合成するやつとかいないのかな。
芸能人からAIで作ればいいんだ。
純粋なディープフェイクの悪用という一点で裁けるのは現状の刑法だと名誉棄損罪くらいしかない。名誉を棄損するというまさにど真ん中の内容ではあるけど。
芸能人だと目立つから逮捕されたに曲解して街で見つけたあの子とかやり出すだけだから早く規制
虐めでフェイクエロ画像拡散されて、10年後に知らない人に見つけられたりしたらなどと思うと…一生が狂うものだから本当にやめてほしい。利用者の理性を信用できないし、画像生成AIのエロ利用に強い罰則ないと怖い
刑法175条案件なので芸能人や生成AI利用に限らず絵でも写真コラでも同じやつ。生成AIでそれらが容易になった事は問題だが、それらは即ち生成AIという道具を悪魔にするものではない。フォトショが悪魔ではないようにね。
新しいPC買ったから、動画生成AIにも手出してみたんだけど、ちょっとエッチなやつだと思った以上に簡単に出てくるぞ。自分の画像を元に出したんだけどまあまあリアルで怖くなったのでそのあと触って無い。
法整備はよ。誰か自爆覚悟で政治家のDF作りまくったら話が速くなるんじゃないか。
>法務省はことし4月、作成のもとになった卒業アルバムやSNS上の写真などの子どもが実在することが確認されれば児童ポルノに該当しうるとして、法規制の対象になり得るとの見解を示しました。