2019/06/27 21:20
nakag0711
どれもこれもまずいなあ。 じつにまずい、もっとだせ
2019/06/27 21:30
gabill
そりゃ出てくるよなぁ。
2019/06/27 21:33
sonzinc
麻雀で勝たなくても良いのか……。
2019/06/27 21:37
fai_fx
ネットもリアルも裸だらけになってしまえば、物珍しさも無くなって誰も裸を気にしなくなる。そいう世界になってほしい。
2019/06/27 21:38
tailwisdom
これ、作成した画像を公開するのはなにかしらの法に抵触するのでは。(しないとしたら、早急に対策を考える必要があるのでは。)
2019/06/27 21:41
bocbqcmn
オトコ版はねーのかよ!怒(いや、別に見たいわけじゃない。てか見たくない。これはちょっとヒドイから。なんでオンナだけなんだ?どうせならオトコも脱がせりゃいいって思っただけ。)
2019/06/27 21:42
hapilaki
やらしい気持ちではなく、AIの技術革新が現段階ではどのくらいのものかを記録しておくためにブクマしておく。
2019/06/27 21:46
kei_1010
実在の人物でやるから文句を言われる。無から生成すれば良い。
2019/06/27 21:46
craftone
試したいけど残念ながらoffline
2019/06/27 21:47
rs5365
水玉コラという文化があってだな…
2019/06/27 21:47
everybodyelse
ちょっと卒業アルバム探してくる
2019/06/27 21:49
kitamati
ウキウキで見に行ったら公開停止されとるやないか!
2019/06/27 21:52
a2c-ceres
エロ本スキャンして首のすげ替えとかやってみて、そんな自分に萎えた経験から言えば、すっぽんぽんは自らの意思でやるから価値があるのである。好みから言えば恥じらいが感じられれればなおよい、演技でもいいから。
2019/06/27 21:54
hazlitt
AR透視メガネの実現?/真正性の根拠がなくなればヌードを晒す・晒される社会的な意味はある程度無効化されるのかな
2019/06/27 21:57
fukken
JK「1クリックでバットマンのマスクを剥ぎ取れるアプリを作ろう」
2019/06/27 21:59
chintaro3
 早速使えなくなってる訳だが
2019/06/27 22:01
goronehakaba
乳輪やら乳首の形はどこの部位から推測されるん?
2019/06/27 22:02
brain-owner
“プライバシーの侵害です”そもそも偽物なのでプライバシーというとごねれそう。詐欺です私のオッパイはもっとこういう………果てし無い泥試合しか見えない
2019/06/27 22:03
develtaro
とうとう出ちゃった
2019/06/27 22:04
btoy
「KIMONO」
2019/06/27 22:04
kozilek
アイコラ文化は昔からあって、有名人のものは今でも溢れている。勿論それはそれで問題だけど、こういうので技術が必要ではなくなり有名人以外にも被害が広がる、という方が怖い気がする。誰でもリベンジポルノ的な。
2019/06/27 22:07
Dursan
ああ、あれかグラビアアイドルの画像を円でくり抜いた図形かぶせて作るやつ
2019/06/27 22:09
straychef
遅かったな
2019/06/27 22:10
birds9328
デジタル技術の驚異…
2019/06/27 22:12
nomono_pp
まあ、こういうのが普及したら、逆にリベンジポルノされても「AIでつくったやつね、はいはい」ってなる気がしないでもない
2019/06/27 22:15
HanPanna
流出画像に対してあれはフェイク画像だって言えるからこれは別にいいと思う。問題は男性を脱がせることが出来ないということだけだ。やはり女性エンジニアを増やさねば。
2019/06/27 22:16
unix_tower
このテの話題が出るたびにバトルランナー(シュワちゃんのアクション映画)は面白い映画だったなって思う
2019/06/27 22:17
yamaisan
こんなアイコンですしブコメしとく
2019/06/27 22:18
bfms350
オフライン?裸で待機すればいいの?
2019/06/27 22:18
dev-masahiro
逆に考えるんだ。自分の裸の写真を「AIだから!AIだから!」って見せつけることが出来るということを…!
2019/06/27 22:20
RAVERAVER
“DeepNudeはダウンロード版のアプリと”
2019/06/27 22:21
bunkashiken
参考資料がもっと無いと判断できないのだが
2019/06/27 22:21
Malan
すばら…恐ろしいサービスだ!
2019/06/27 22:23
kachine
有名人なら元画像の著作権・パブリシティ権侵害、一般人なら肖像権侵害だし元画像を撮影した人間かそれを入手できる人間が犯人と推認できるので、意外と法的措置や捜査はしやすいかも?被害者にとっては大迷惑だが。
2019/06/27 22:24
omotenothing
こうなるとなんの劣情もわかない エロキラーとなるか
2019/06/27 22:25
rna
裸にしたものを公開すれば名誉毀損だけど裸にするソフトの公開自体は合法かな?
2019/06/27 22:25
fnwa
ドラえもんが買ってきたやつ
2019/06/27 22:25
dongdeng
本当にリベンジポルノを流されても「はいはいどうせアイコラだろ」となるなら被害者は救われるのでは
2019/06/27 22:26
annoy
そう言えば昔アイコラなんてのがありました。
2019/06/27 22:28
benriman
確かにリベンジポルノに悪用されちゃうよ、まずいよなあ、これ。
2019/06/27 22:28
catsnail
二次元版希望
2019/06/27 22:33
naggg
この技術に、MRグラスかけたら、スケスケメガネができちゃう・・・。という冗談はさておき、危険な技術だ。
2019/06/27 22:40
keso361
今年のノーベル平和賞受賞者が決まったな
2019/06/27 22:41
BIFF
男だとどうなるのかな。。
2019/06/27 22:41
bbk0524
非公開ブクマでなく堂々と公開ブクマするってことは何もやましい気持ちがないってことだからな!(声高)
2019/06/27 22:43
Phenomenon
こういうのは公開されて広く知られている方がまだ良いと思ってしまう。
2019/06/27 22:49
h1roto
将来は自分の思い通りの出演者、シナリオでポルノが生成される未来が来るのだろうか
2019/06/27 22:51
sangping
これは儲かる。
2019/06/27 22:51
bean_hero
犬猫の写真を全身毛を剃った写真にするアプリも一定の需要がありそうな気がする(ない
2019/06/27 22:53
holstein_ojisan
次は花瓶が絶妙に陰部を隠すAIが流行る予感。
2019/06/27 22:54
rti7743
なかなかやるなじゃねーか
2019/06/27 22:55
doas1999
むしろこれが進んでいくと、リアルのヌード写真や動画に意味が無くなっていくよな。
2019/06/27 22:56
Cherenkov
オンライン版 トラフィック過多で公開停止中
2019/06/27 23:01
t-tanaka
id:bocbqcmn 本記事に理由が書いてあります。「男性の場合はインターネット上でヌード写真を見つけづらい」ためにAIの学習データが十分にそろわないからだそうです。
2019/06/27 23:02
oka_mailer
アイコラと同じように肖像権、名誉毀損、著作権あたりでアウトでは。
2019/06/27 23:03
K-Ono
おれは水玉みたいなやつのほうが粋に感じるなー。
2019/06/27 23:03
kaos2009
[アルベルトさんはDeepNudeの男性版も開発予定としながら、男性の場合はインターネット上でヌード写真を見つけづらいのが難点
2019/06/27 23:05
ryunosinfx
スケベ人間の頭の中でやっていたことをAIが出来るように成りましたとさ。そう言えば刑法175条の免罪符を解除するAIはもういるんだっけ?(外国には需要がないからなぁ)
2019/06/27 23:08
africakennel
開発チームのツイートによれば、Deepnudeはいろいろ改善した上で数日中に復旧予定とのこと。「こんなに多くのユーザーの流入はまったく想像していなかった」と言っているが、世の男性の欲望を甘く見積もりすぎだろう。
2019/06/27 23:08
blueboy
 日本人だと、実際以上にグラマー(巨乳)になりすぎる可能性。
2019/06/27 23:08
mori99
昔の事件で、同僚に借りたパソコンにあった同僚女性のアイコラヌードを本物だと思って同僚女性を恐喝して捕まるというのがあって、何重にもアホ過ぎて未だに覚えているのを思い出した。まあ、なんだ
2019/06/27 23:09
Nigitama
のび太「ドラえも~ん、なんとかしてよーお願い!」ドラえもん「しょうがないなー・・・」
2019/06/27 23:10
hoihoitea
男に対してのDeepNudeに関しては"When Motherboard tried using an image of a man, it replaced his pants with a vulva.”だって。元記事より。
2019/06/27 23:10
buhoho
ふたば民から仕事を奪うな!
2019/06/27 23:12
locust0138
最先端の科学技術がエロ目的で使用されている現状を鑑みると、人類は進歩しているのかいないのかわからない。
2019/06/27 23:16
himakao
AIでアイコラ職人が失職してしまう
2019/06/27 23:17
boshi
エロは技術を進化させる。。。のか?
2019/06/27 23:22
khtokage
広末涼子のアイコラ必死に集めてたことを思い出した…
2019/06/27 23:23
skypenguins
本物の人間にしか見えないけど非実在人物のヌードなら?…といろいろ考えるとSFの時代はすでに来てるんだよなと思うよね
2019/06/27 23:25
UhoNiceGuy
アイコラをアイドル本人の画像と思う奴はいないだろう。これが普及すれば「あぁ、DeepNudeね」ってなるだけだろ。ヌードの価値がなくなるだけ
2019/06/27 23:27
KAN3
美人の顔とスタイルのいい人の体のデータを集めて自動生成されたAVを販売する会社とかその内出てきそう
2019/06/27 23:29
slkby
バランス取るために男版も必要ね
2019/06/27 23:29
PYU224
スケベは技術を進化させる好例で草不可避。
2019/06/27 23:33
shinichikudoh
体型に連動してるなら性別は関係ないのでは。男にも乳首はあるし。
2019/06/27 23:34
htenakh
これ限りなく「実在の人物に似た人」ってごまかされたらどうすんの。
2019/06/27 23:36
mununuiota
おばあちゃんの写真でやでやったらどうなるの?と。
2019/06/27 23:38
takeishi
AIが切り開く未来
2019/06/27 23:40
altar
見えてる部分から想像で補完したに過ぎないジェネリックボディに羞恥を感じるのだとしたら、補完前の服装でも同じように感じるのが自然。現行の服装基準が薄着過ぎるのか、裸体を特別視しすぎているのか。
2019/06/27 23:42
hahiho
このまま動画でも本物と見分け付かないくらい進化したらあらゆるリベンジポルノの打撃力がゼロになるよな
2019/06/27 23:44
rrringress
煩悩駆動型開発
2019/06/27 23:46
kae1990
AI「見える…!見えるぞ…!!」
2019/06/27 23:46
adsty
フェイクポルノの生成技術も進歩してしまっている。
2019/06/27 23:49
azumi_ww
自分がアイコラされてるの知ったらすっごい悲しいからあんまおおっぴらに流行らないといいなあ
2019/06/27 23:49
heyjoe0123
あとでやる
2019/06/27 23:50
thefla
夢だな/悪夢なのかも
2019/06/27 23:53
schweintan
ネタにしてるブコメ多くて怖い。
2019/06/27 23:53
sumika_09
AIコラ
2019/06/27 23:53
wow64
アジア人に適用しても洋風な胸元になったりしない?
2019/06/27 23:54
bqob9po124
「windowlicker/aphex twin」のジャケでやったらどうなるのっと🧐
2019/06/27 23:54
mayumayu_nimolove
クラスや社内の可愛い子は100%男のおかずに使われていると聞いたことがあるがこのアプリのガッつきっぷりを見ると真実かもしれない
2019/06/28 00:00
hizakabu
昔上戸彩の裸みた。それと同じでしょ?
2019/06/28 00:05
hetoheto
オートアイコラ
2019/06/28 00:07
petitbang
「服が透けて見えるメガネ」の実現まであとちょっとじゃないか。
2019/06/28 00:08
Dragoonriders
制作者が男性ヌードデータを探すのを面倒臭がってる(やる気なさげな)気配がする。
2019/06/28 00:11
srng
“このような技術は一般向けに公開されるべきではありません” 技術自体は公知だからなあ/このアイディアが公になった時点で相当多数の人間がこれを自前で実装できる。問題視するのはもう手遅れ
2019/06/28 00:16
RCHeLEyl
女性の裸は需要があるから仕方ないしつい笑ってしまったけど、これは問題になるなあー。男性版もあるべきだけど、裸を見たい男性なんてあんまりいないし……。
2019/06/28 00:22
tarume
希少価値の毀損、属人性の排除、再現性の担保。人類は確実に正しい方向に向かっている / まだ肉体で消耗してるの?
2019/06/28 00:23
vndn
これをゴーグル型のVR機器に搭載するわけだ。なんて酷いことを考えるんだろう!
2019/06/28 00:26
leiqunni
浅はかな。
2019/06/28 00:27
uekaraittaro
人類を平和にするアプリっすな
2019/06/28 00:32
imishinkun
海外メディア、実在する女優の画像を使うのはありなん…?
2019/06/28 00:34
hdampty7
そのうちコラかどうかを判定するAIも出てきてネットへのUP者を特定するAIも出てくれば平和になる?
2019/06/28 00:36
hosi
これ、日本国内で悪用された場合は現行法で対処しきれるのか?
2019/06/28 00:37
petitcru
えーと、これ元の写真の人の人権はどーなの?あかんやん
2019/06/28 00:38
yshdyk11202000
これをメガネに機能つけたやつがドクタースランプに出てたアレだったのか
2019/06/28 00:38
peach_333
さぁて同僚でやるか!
2019/06/28 00:43
sirocco
ポルノ見たさにビデオデッキが普及した。インターネットで最も衝撃だったのはポルノが見放題だったこと。AIもポルノから?
2019/06/28 00:44
GOD_tomato
全部丸裸だぜ...まずは技術の進歩を喜びたい。
2019/06/28 00:45
manaplus
トップコメwwwwww
2019/06/28 00:47
hazime2914
仮にこれで生成した画像の公開を法で禁ずるとしたら何にあたるんだろ。単純にわいせつ物関係か
2019/06/28 00:50
stairwell
冗談抜きにどういう技術か純粋に興味あるけど老若男女誰をモデルにしても問題が生じるから動物とかで解説してほしい……それもケモになるからだめ?
2019/06/28 00:52
hahahatsu
危険!
2019/06/28 01:00
cl-gaku
乳首は顔から推測されるのかな
2019/06/28 01:01
zubtz5grhc
新技術の普及にはエロが絡むってよく言われる。
2019/06/28 01:02
knosa
“女性の写真のみ変換可能で、”どうやって男女を見分けてるんだ?
2019/06/28 01:03
odakaho
眼鏡型はよ
2019/06/28 01:05
kaitak1998
ジャパンにははるか昔から東スポの「玉門占い」という優秀なAIがあって、すでに実現してるの知らないのかな
2019/06/28 01:10
sutannex
こういう技術があるって事を知らないと簡単に騙されるな。ネットで何が真実で何が嘘か見分けるのが年々難しくなっていく。
2019/06/28 01:18
masa_rst
これでAI本気で学ぶ学生さんが増えて技術が普及するってやつか、ビデオデッキの時のAV的な。
2019/06/28 01:18
punychan
男性版を作るより前に、まずはこのまま男性に適用した結果が見たい。
2019/06/28 01:19
notomata
セクシーなドレスや素敵なお洋服を着てるから肌や身体つきがより綺麗に見えるんじゃないか。一生懸命オシャレしてるのにクリックひとつでマッパしかもコラなんて美もエロスも解さない野暮天よ
2019/06/28 01:21
mopx
誰でもない人物を生成するってニュースあったけど、これと組み合わせると誰でもないポルノが完成。抵触する年齢で生成した場合、それは犯罪?現実と見分けつかないなら問題だけど非実在は二次元もだ…線引き出来る?
2019/06/28 01:22
LordLuckRock
「たとえ嘘であっても相手を貶めて良い」と思う人がいるからなぁ。普及しても被害は出るだろうね…
2019/06/28 01:29
chekan
さすが、落ちてるw www.deepnude.com
2019/06/28 01:30
underd
あとでよむ
2019/06/28 01:32
ultimate-ez
よーし。、ARメガネ買ってこよう
2019/06/28 01:32
shoh8
学術的見地からブクマしておく
2019/06/28 01:35
hataketo
また才能と時間をこんなことに使いやがって。けしからんな。けしからん。
2019/06/28 01:36
u_eichi
肖像権とかそういうのに抵触しないの?|趣味がフォトショでコツコツやるアイコラだったおじさん同僚涙目(ネットに流さず独占するのがたまらないらしい)。|二次元版は日本人が作ると思います。
2019/06/28 01:41
sesamitan
アイコラじゃねーか!
2019/06/28 01:44
Insite
既に脳内で実装されてるはずだが/名誉毀損と猥褻物頒布か
2019/06/28 01:52
htnmiki
なるほど
2019/06/28 01:53
et4
fakepornという概念の存在がはてな民にバレる。
2019/06/28 02:19
millipede
すごい時代だ
2019/06/28 02:21
kou-qana
メガネ型男女対応のができたら、ぜひ結婚式の親族写真の破壊力を試してほしい(案外感動的かも)
2019/06/28 02:22
kkoiro
ai
2019/06/28 02:26
technocutzero
価値を棄損するには溢れさせること つまり裸に価値がなくなる
2019/06/28 02:29
sushisashimisushisashimi
素晴らしい
2019/06/28 02:36
algot
もうAIで風俗嬢作れよ
2019/06/28 02:41
Galaxy42
骨格から筋肉までさまざまなレベルでスケスケになる方向へ、全力で開発していただくってのはぢうだろう。
2019/06/28 02:44
adwhing
アイドル顔を生成するやつと組み合わせれば…
2019/06/28 02:48
palm84
うーむ
2019/06/28 02:56
grizzly1
これはけしからんな
2019/06/28 03:02
qwerton
おれの裸画像を作る時はメリケンサイズで作ってくれよなっ!
2019/06/28 03:05
kuniku
将来的にFAKEをAIが 顔、輪郭、体型などからのデータから 激似ができあがりそう
2019/06/28 03:08
sanma3
笑えなさすぎて笑える/これ見て呑気に笑える人ってやっぱり遠いなと思った。
2019/06/28 03:19
maguro1111
今公式にリリース停止のアナウンス出たね。「思ったよりバズって悪用される可能性が高くなった」「そもそもそんなに凄いソフトじゃない。特定の写真でしか動かない」(大意)
2019/06/28 03:19
tweakk
その昔水玉コラというものがあってのう…
2019/06/28 03:42
zmk99
頭のいいバカがいた。嫌いじゃないぞ転進含めな
2019/06/28 03:57
toshiyukino
すごいなー
2019/06/28 04:06
togajo
テクノロジー
2019/06/28 04:18
mory2080
木の葉を隠すなら森の中というけど、本物を流出してしまった人には朗報になる?
2019/06/28 04:25
kkobayashi
モザイク外しもできそうだな
2019/06/28 04:46
HanaGe
ドン引きしてる。気分が悪い。コラを作られた人はすごく傷つくよ。少しも笑えない/追記:「こんなんコラじゃん」←やられた人の気持ち想像してみ? あなたの家族がコラとしていじりやイジメの道具にされたら?
2019/06/28 04:49
hotu_ta
法整備が急がれる
2019/06/28 05:02
matchy2
すでにサイト閉鎖済み
2019/06/28 05:37
kincity
本質的に男を信用も尊敬もできないのはこういうのを肴にしてキャッキャはしゃげる奴が多いからだよ。基本的に無神経で幼稚な方が多過ぎる。なんでここまで幼稚なのか理解できない。教育なのか本能なのか。
2019/06/28 05:57
kendokakataoka
おー。。
2019/06/28 05:58
qouroquis
このようなディープフェイクが氾濫すると、真実であることをどのように担保するか。全ての情報は一旦虚偽であるとして、何らかの手段で真正性を保証されたもののみに基づいて考えるしかないのか。デカルトか。
2019/06/28 06:06
hauhau_suta
文句言っても止められない流れになるんじゃねぇかなぁ。
2019/06/28 06:19
abll
twitter.com アクセス殺到でサーバがもたなくなったから、サーバ強化の上、数日後に復帰するってさ。
2019/06/28 06:19
bokmal
アイコラ訴訟は被害者が勝ったけど、この手軽さと拡散速度では裁判したところでなぁ。/ 教室で「裸にされて」遊ばれるいじめられっ子が出てきそう。/SNSにより個人の端末が往来の一部になって状況が変わった感がある。
2019/06/28 06:22
plutonium
ふーん、って感じだけど既に何か過敏な反応を引き出してるな
2019/06/28 06:23
kz14
もう逆にリベンジポルノが起きても「これはフェイクです」と言い訳できそう
2019/06/28 06:32
ROYGB
男性だとどうなるのかな。
2019/06/28 06:40
flistius
「本質的に男を信用も尊敬もできないのは」か。直球の性差別コメント来ました。通報した。
2019/06/28 06:44
kase404
アイコラなんて20年前からあるのにウブな反応多くない?
2019/06/28 06:46
cyber_bob
体形が現物より良く映るなら嬉しい人もいるだろうし。
2019/06/28 06:47
shun_libra
エロがテクノロジーを進歩させているエビデンスではあるが、二次元キャラのエロ同人とは比較にならないくらい、見てはいけないものを見てしまった気がする。
2019/06/28 06:47
enu7
化粧まで落としてしまえば、誰だかわからなくなるので問題解決じゃないかな
2019/06/28 06:48
kangiren
モロだしより、水着の方が好きな自分としては、残念な技術。/写真を萌えイラストかしちゃうAIまであとどれくらいかかりますか?
2019/06/28 06:49
wankowanwan
コメ欄からウキウキ感にじみ出てるように見える。誰かの写真を勝手に裸にする権利なんかないとか、まず思わんのか。
2019/06/28 06:50
tinao
これに対抗する男版ができたら、まさしくリベンジポルノ。実際はネット上に流布しているポルノ画像が圧倒的に女性が多いから機械学習させるのに不利だろうけど
2019/06/28 06:54
yarukimedesu
昔、兄貴の持つエロ漫画が白抜きで消えている部分が書き足されているんを発見したことがある。あれは、AIだったのか。もう20年以上昔の話。
2019/06/28 06:54
maruX
女性の性的自己決定権を蔑ろにするアプリを面白ネタにすんなよ。動画バージョンの時も思ったけど、なんでそんなに一方的に裸に剥く方の視点に立てるわけ?
2019/06/28 06:56
TequilaBancho
男性版がネット上に落ちている男も裸の写真が少なく学習しづらいからつくりにくいと書いてあるが、学習用の1万枚なんてすぐ手に入るし嘘だと思う。そういう差が問題を深刻にしてる。
2019/06/28 06:57
misopi
決して許されない!!
2019/06/28 07:05
GAGLE
可能な限り女のおっぱいとお尻見たいのが本音だし本能だし仕方ない。逆にそれを抑制しろと強制するのはハラスメントにならないの?
2019/06/28 07:10
apipix
AIコラ
2019/06/28 07:15
sub_low
リベンジポルノの公開範囲は狭まっていくと思うんだよね。つまりは誰もが見れるところにアップより、どうしても見られたくない相手に送りつける的な。その場合、フェイクか否かはあまり関係がないのではと。
2019/06/28 07:15
Dai44
AIコラ
2019/06/28 07:16
pianocello7
すご
2019/06/28 07:16
skgctom
まだ技術が未熟だから簡単にできるものでもないけど、この技術が進んだ先に真っ先に使われるのは「いじめの手段」だろうなと思う。個人が家の中で完結してやる分には外に出さんなら好きにしろと言えるが...
2019/06/28 07:20
chirasinouramemo
流出した本物の画像も「これはフェイクです」ってことにできるね。画像にモザイクは入るのですか?
2019/06/28 07:21
aquatofana
「人類」をシスヘテロ男性のみに限定しているブコメがちらほら。「私の体は私のものだ」と女性が叫んだ80年代から、何一つ進歩していない。/自分が「狩られる獲物」として狙われる恐怖は、合成画像でも変わらない。
2019/06/28 07:22
assena
男性達の無邪気なウキウキしたコメントが怖い。自分の写真が使われたら嫌だよこんなの。男性は自分は対象にならないと思うから平気なんだろうな〜痴漢を大したことないというのと同じ。
2019/06/28 07:23
hiroki22
週末が楽しみで仕方ないぜ😍
2019/06/28 07:27
mythm
リベンジポルノや流出した人より、そうでなくこれで裸に剥かれる被害者の方が多いと思うんだけど。レアケースの救済を大義名分みたいにして言う人がブコメにも幾人もいて怖い。
2019/06/28 07:28
funifunix
喜んでる殿方は御子息が短小粗チンにすげ替えられた画像がネット上に流布して女性社員に裏で馬鹿にされても嬉しいのか…
2019/06/28 07:30
beramines37
やっぱ技術革新に必要なのはエロだ
2019/06/28 07:30
beed
ダメだろとは思うものの、技術的に可能であれば現実的には止められないんだよね。一般の人はまだまだ動画や写真を見て真実だと思うだろうし、誰かの人生を終わらせることもできそう。
2019/06/28 07:31
aceraceae
今どき簡単にできるからね。技術的には出てくるべくして出てきたという感じしかしない。
2019/06/28 07:32
shufuo
Not Foundでござる。
2019/06/28 07:35
kmartinis
“DeepNudeのアルゴリズムをトレーニングするために、1万枚以上の女性のヌード写真を用いたとも語っています”本当にそんな数で足りるのかな。“以上”だからなんとも言えないけど。
2019/06/28 07:37
differential
ホクホクしてる男子は、短小包茎ちんこ裸体と合成されてしまってまとめサイトあたりでまとめられて、指差して笑われでもしたらええんとちがう?/少なくともvice.comの記事のキャプチャ画像は人権侵害じゃないすかね
2019/06/28 07:38
folds5
id:bocbqcmn これぞミサンドリーの典型発言。自分が嫌なことを人にするなって言われなかった?こんな発言するから溝が深まるんだぞ。大きな主語は敵を作ると言うことを学ぶべき。一人の男がしたから全員に返すのは悪手。
2019/06/28 07:38
I_am_masuda
もう服なんて着ても意味ないからみんな脱ごう
2019/06/28 07:38
call_me_nots
◇リベンジポルノ活動団体であるBadassのカテリン・ボーデンCEO「裸の写真を撮ったことがなくても、誰でもリベンジポルノの犠牲者になる可能性があります。このような技術は一般向けに公開されるべきではありません」
2019/06/28 07:40
aosiro
モデル自身がOK出していて、上半身だけならセーフかな。男性の上半身はポルノ扱いされないからね
2019/06/28 07:40
tnek
否定的意見は女性はてなーの可能性が高いからメモっとけ男性諸君
2019/06/28 07:41
waot209
ウキウキしたコメを非難する向きがあるけど、剥きコラ生成してオナるのは内心の自由の範囲であり素直に喜んだって良い。女は何でも理屈じゃなく嫌悪感で叩くからバカなんだよ。もちろん他人に公開すれば名誉毀損。
2019/06/28 07:41
htbman
裸を見るだけでは機能しなくなって少子化が進む未来
2019/06/28 07:43
Re-birth
ゲイマッチョな方々の自撮りたくさん探せばいいんだよ。いじめにつかわれ、物を知らない周囲から自分で脱いだと言われる未来
2019/06/28 07:44
arearekorekore
やったせ。
2019/06/28 07:51
satovivi
宗教方面で名誉ナントカに発展しそうで怖い…。 やるなら自分好みの架空人物作れるようにすればいい。実在の人物でやれば反発必須でしょ。女性だけじゃなく男性も不快かと。妻や娘の裸アイコラ生成されるかもだし。
2019/06/28 07:53
misarine3
自分の裸でないなら別に…と思うのはダメなんか?みんなが知る技術にすればアイコラと同じ扱いになりそう。作成した他人の裸を公開したら名誉毀損扱いになるだけで。あと男版も作ってよ。
2019/06/28 07:55
otihateten3510
俺「アイコラだろ」 誰か「アイドルじゃないからアイコラではない」 俺「だれだお前」
2019/06/28 07:59
ewiad420
大丈夫、本当にリベンジポルノされても「すごいね~、最近のはリアルだ」とでも言っておけばいい。/ 架空の人物作る技術あったけど、それと合わせれば特定の誰かでないポルノが出来上がるな
2019/06/28 07:59
iGCN
無言ブクマ
2019/06/28 08:02
pink_revenge
アイコラの機械化か
2019/06/28 08:07
wildhog
男性ボディビルダーの写真なら沢山転がってそうだから、男性の写真を1クリックでマッチョにしてしまうサービス作ってよ。プロフ写真にする
2019/06/28 08:08
hogefugapiyox
脱がせるほうが出来るなら、逆に着せる方の画像変換も出来そうだし、今は計算資源的に難しいかもだけど、全てのブラウザにそれが載っているという時代が来るかもな
2019/06/28 08:09
IIl
ほう
2019/06/28 08:11
AyeBee_TY
日本人のヌードを教師データにしたらなんもしてないのにモザイクかかったりするのかな。
2019/06/28 08:11
sikimute2323
ネットで顔出しの危険性
2019/06/28 08:12
tana_bata
この前あった自動生成アイドルと組み合わせれば誰も悲しまない世界が
2019/06/28 08:13
mrwkn8832
気楽なコメントばっかりで頭が痛い。自分は女の裸を「個人利用」しかしないからわからないんだね。自分の母親や娘や妻の全裸写真が自分の職場にばらまかれたら、人権ってものが分かるかな?男版云々って話じゃない。
2019/06/28 08:16
yuichi0613
これすぐ悪用されるだろうし、子どもの裸とかも作られるようになるだろうから本当に脅威だと思う
2019/06/28 08:16
o120f
そう考えると 中2の頃から自由自在にクラスの女子をDeepNudeしてた俺の脳内ニューラルネットワーク かなり高性能だったんだな
2019/06/28 08:18
zakusun
やっぱり日本は女性の人権後進国だな。
2019/06/28 08:19
norihiko_matsumoto
これはけしからん。
2019/06/28 08:21
rou_oz
そのうち動画でできるようになるだろうなあ
2019/06/28 08:23
cavorite
SF小説ではだいぶ前から悪ガキたちが「すれ違う女性を裸にするようにセットした」ARギアをつけて街をうろついている。
2019/06/28 08:26
lemondm7
インスタとかに自分の写真あげるのもはばかられるよねっていう
2019/06/28 08:28
deokisikun
これはエロコンテンツによって普及するの法則発動か。AI流行るかも
2019/06/28 08:29
kikikaikaikai
モラルとは
2019/06/28 08:29
Cru
まあGANでどんなfake作れば話題になるか競争つうか、テクノロジー自体にそろそろ驚きはないよねぇ
2019/06/28 08:30
knok
CycleGANかとおもったらpix2pixなのか
2019/06/28 08:34
sumena
アイコラ職人が絶滅してしまう
2019/06/28 08:35
quabbin
サイト、消えてる…
2019/06/28 08:43
comp123jp
確かにコレで作成した画像を公開したら人権侵害とか肖像権とかに引っかかりそうでは有る
2019/06/28 08:44
Kurilyn
本物の価値が上がったりするのだろうか
2019/06/28 08:45
Cujo
きょうかしょのかおじゃしんにひげをかくののなかま?[ねた]
2019/06/28 08:46
bisco_uma2
まったく度し難いな…
2019/06/28 08:47
yP0hKHY1zj
自動で水玉コラ作るやつあったよね。あれって10年くらい前だよね?
2019/06/28 08:48
kg171
web関係者って本当にモラルが低いなと感じる。これ、やられた側がどんな気持ちになるか少しは考えないのかね。サイコパスの所業としか思えない。賛同したり面白がったりしてるやつも同類。
2019/06/28 08:53
timetrain
自動生成した人間の顔に自動生成した裸を付け足したら、行き着く先は二次絵と紙一重になるのでは
2019/06/28 08:55
sho
禁止したところでムダだろうし、こういうテクノロジーに人類の方が慣れるしかない気がするなぁ。
2019/06/28 08:57
iasna
逆に三次の裸写真見てもはいはいコラコラで済まされるわけだな?
2019/06/28 08:57
theatrical
技術的に難しくないので、開発者に倫理観がなければ簡単に起きてしまう。AI兵士的なものも、ソフトウェアが揃えば、3Dプリンタもあるので、倫理観がなければ、簡単に作れる時代はそれほど遠くない。
2019/06/28 08:58
iww
「それぞれが異なるタスクを持っています。ひとつは服を認識し、ひとつは服を消し、ひとつは服をはがした際の乳首などの位置を推測し、ひとつは裸をレンダリングする」 TEDかなんかで熱く語ってほしい
2019/06/28 08:59
su_zu_ki_1010
これに関しては技術の無駄遣い感があるけど、将来はちょっとピンボケしてしまったり、第三者が入り込んでしまった写真も気軽に、何事もなかったかのように修正出来るんだろうな。
2019/06/28 08:59
fashi
久々に本気でアンダーグラウンドな感じするヤバそうなツールやな…公開停止になっても何処かで流通しそうな / フォトショスキルがあれば誰でも作れた→高いビデオカードを買えば誰でも作れる、のブレークスルー
2019/06/28 09:02
munieru_jp
これが本当のAIコラってね
2019/06/28 09:03
tettekete37564
リベンジポルノってそういう意味だっけ?
2019/06/28 09:04
Helfard
トランプとプーチンとローマ法王がヌードにされても生きていけるかな?
2019/06/28 09:05
reijikan
これまでも手動でコラが作られていたので、それが自動にできるようになっただけですね。気軽に手を出す人が増えるかもしれない、という問題は出てきますけども、本質的には状況は変わっていないのではないでしょうか
2019/06/28 09:11
tsukumoya99
アイコラだろで流されるからって一笑にふしてるコメントがわからない…アイコラだからで許される問題でも、流してもいいってことでもないんだが?
2019/06/28 09:12
yajicco
ほうほうほう(梟
2019/06/28 09:13
YukeSkywalker
乳首の色なんかはわからんだろうに(ゲス
2019/06/28 09:16
kitakokomo
あなたの顔をしたヌード画像なんて20年も前から個人で作れるようになってるぞと言ったら心底驚きそうなブコメがいくつかあるな。やはりHTMLエディタと写真編集ソフトはプリインストールされるべきだった
2019/06/28 09:18
selmr
無言ブクマ
2019/06/28 09:21
plagmaticjam
動きを加えて表情が出るようになってVR化されれば誰とでも疑似セックスできるようになるってことか。すごいけど怖いな
2019/06/28 09:21
trashcan
アイコラは普通に犯罪で捕まるよ。一昔前アイコラの大規模な取り締まりがあったことを忘れてたり知らない人が多いんだろうな。
2019/06/28 09:22
Harnoncourt
「男性の場合はインターネット上でヌード写真を見つけづらい」ために←見え透いた嘘を言うな。たとえばhunk っていうワードで画像検索してみろ。雄っぱい天国だ!
2019/06/28 09:24
matsui899
すげー問題。男でもできるのかしら?
2019/06/28 09:24
yoiIT
リアルタイムで処理してVR(AR)化したとしたら、透視メガネみたいなのできるな…
2019/06/28 09:24
pockey_sword
これ、男でやったらどうなるんだろう…。カツラかぶって女性的なメイクした写真使ったら、存在しないヌードが出来上がるのかな?
2019/06/28 09:25
nentaro
オイコラ
2019/06/28 09:25
miyaken2582
2019/06/28 09:26
kathew
最低(´・ω・`)
2019/06/28 09:28
Androtest
剥コラ(二次元)は不可能なのか……アニメキャラ脱がせれるなら画期的 職人の手を介さずにエロアニメ化できる
2019/06/28 09:30
junmk2
逆に一般化したらリベンジポルノが無効化するのではないか。
2019/06/28 09:30
sanam
id:folds5 この手の記事を批判すると、女もやればいいとか他人の自由を制限するのでなく自分も自由になれとかそういう返しをされるからだよ。で、本当に男と同じ事したら悪魔みたいな扱いをされるのが常。
2019/06/28 09:30
kisiritooru
ポルノを呼び水にしたネット上にない顔画像を集めるサイトだったりして。
2019/06/28 09:32
neo_Neutral
そのうち、視覚情報をハッキングできる日が。
2019/06/28 09:34
suika3417
色々トラブル生みそうだなぁ
2019/06/28 09:34
auto_chan
いまは勇者さまにやめてとお願いできるがいずれ誰でも診断メーカーくらい簡単に作れるようになる。はやく!!誰でも!!作れるようになって!?!?……ほら…今はなきものの景色や映像をVR化するとか、さ……(建前
2019/06/28 09:37
nora-inuo
これネタではなく本当にあるの?すさまじい技術だなー。
2019/06/28 09:38
minoooon525
他意はないけどAIの進歩はスゴイナー
2019/06/28 09:43
ivory105
URL先無くなってるね。アイコラの楽しさ全くわからんのだけど何なんだ。着エロ派だからかな。個人的には自分の全裸コラばらまかれても首から下のそれ別人の(もしくは自動生成)だしって思っちゃう。顔が出る方がやだ
2019/06/28 09:44
akima9936
ガタッ
2019/06/28 09:47
mrgw02
もうこんなこと出来るようになってるのか…
2019/06/28 09:49
kazkun
AIコラ(笑)
2019/06/28 09:51
nt46
ファクトチェックせねば。
2019/06/28 09:51
xevra
近いうちに目の前の人をリアルタイムで動画として裸に変換表示してしまうアプリもできるだろう。それを眼鏡デバイスでリアルタイム視聴。酷いディストピアだよ。恐ろしい恐ろしい
2019/06/28 09:52
eringix
そもそも今の(手作業生成の)アイコラだって嫌がらせの手法としてメジャーなのに別にアイコラだし……ってなるか?/なんかアイコラというものに対して麻痺してない??
2019/06/28 09:52
quality1
動画でできるようになる日も近いんだろうな。
2019/06/28 09:52
rgfx
尊厳とは
2019/06/28 09:53
yom-amota
リアルタイム処理でメガネにつけたら雑誌の裏に載っていた透けるメガネになるな、
2019/06/28 09:53
bfox
あくまでAIの進歩を評価するため、ただただそれだけの為だけに使ってみるか。AIに興味があるだけだから。マジで!!
2019/06/28 09:55
wata88
顔を取り替えるのに較べたら色々と難易度は下がりそうだが、ヤバそう
2019/06/28 09:55
sekiryo
作ればどういう事になるかはわかっているのだが自分の技術で作れるという確信があるなら作ってしまいたい欲の方が上回る奴というのは確実に存在するのだよな。
2019/06/28 09:56
kiuiningen
もうどんな技術が開発されるかわからないからネット上に写真を載せない方が安心。女性だけじゃなくて、男性・子供も出来るようになったら恐ろしすぎる。サンプルで載せられる芸能人が可哀想だ。
2019/06/28 09:58
pekee-nuee-nuee
男は割とディティールが見えやすいから難しいのでは?名状しがたいものが股間にくっついてる写真が生成されちゃいそう
2019/06/28 09:59
zire
申し訳ないけど気持ちが悪すぎる、一体何を考えてるんだろうね?→『id:tnek 否定的意見は女性はてなーの可能性が高いからメモっとけ男性諸君』
2019/06/28 10:00
junjun777
最悪。こういうのできちゃう人は忘れがちだけど、「誰でも」「手軽に」できてしまうのは問題なんだよね。/ただ、もしこれでヌード画像に価値がなくなって羞恥心等もなくなれば良いけど、ま、そうはならんか。
2019/06/28 10:02
metalsnake
変な批判が多いな、他人がうつる写真を加工してばら撒くのは人格権侵害、著作権法違反、名誉毀損で犯罪だが、他人の写真を加工して自分で使う分には何の問題もないだろう。
2019/06/28 10:03
kuzumaji
あ、これもうSnowとかカメラアプリの現状考えたら、現状のスマホで透視カメラみたいなのできちゃうね。倫理観の勝負。
2019/06/28 10:03
Lhankor_Mhy
盗撮と同様、プライバシー権の侵害にあたるだろうな。/ 人間の脳がセンシティブな顔を入れ替えるdeepfakeよりも、技術的に易しそうな気がするが、こちらの方が後に登場したのはなせだろう。
2019/06/28 10:04
tacticslife
補正で豊胸機能も付けてあげて欲しい(違)。
2019/06/28 10:05
Shin-Fedor
エロでなくても、今後は写真も動画も電話も何もかもがリアルタイムで加工され、何も証拠にならない時代が来る。現実と虚構の定義も変わっていくだろう。技術革新の速度に人権保護のための制度や法律が追いつけない。
2019/06/28 10:05
mopo123
卒業ー写真のあの人はー
2019/06/28 10:12
ryuzi_kambe
どうせなら人間を全部猫に変えてネコと和解しよう
2019/06/28 10:12
kakaku01
顔も自動生成すれば誰も傷つかないのに
2019/06/28 10:13
ooblog
#アイコラ #AI #DeepNude 「誰でもリベンジポルノの犠牲者になる可能性~男性版も」時代遅れが真に受けてセカンドするイジメ共犯を防ぐためむしろAIコラ技術は周知徹底させるべき。
2019/06/28 10:14
lyiase
ブクマにもあるが、男女平等の為に、女性専用じゃなくて男性も裸にするヤツが待たれる___ 技術自体はそれほど高いものではなくて、製作者の努力によるものだろうw
2019/06/28 10:15
hiby
山とか谷みたいな自然の背景なんてもはや作れるし人が作れない理由はないわな。男性は対応してないんだろうか。
2019/06/28 10:19
mobile_neko
もうちょいしたら動画対応とかカメラアプリでリアルタイム対応も出てきそう
2019/06/28 10:20
atsushimissingl
架空の顔を生成するやつ使えば、架空の女性の架空の裸を生成できるんじゃね?そのうちAV女優がAIに仕事を奪われる日が来るのかもしれん。
2019/06/28 10:20
cheapcode
AIがコラ画像を自動生成する時代が来たか。。。やられる方はたまったもんじゃないな。
2019/06/28 10:20
igrep
サービス終了した理由: twitter.com
2019/06/28 10:31
Cottonton
フェイクならいいとかそういう問題ではないんだわー。全裸に価値無くせばってそこまで溢れさせるつもりなん?きっつー。/フォトショ立ち上げるのとアプリでぱぱっと作るのとではハードルの高さが全然違うよな。
2019/06/28 10:33
wwolf
剥きコラメーカーやん
2019/06/28 10:34
namisk
正直に言って嫌な気分になった。「実在の人物のわいせつ画像を偽造し公開する罪」って名誉棄損でいけるのかしら?肖像権?
2019/06/28 10:35
tomo31415926563
pix2pixって書いてあるけど、世の中にそんなに裸と着衣の画像セットあると思わないのでcycleGANだと思う
2019/06/28 10:39
takeshiketa
この手のやつの出現は時間の問題だよね
2019/06/28 10:43
osugi828
車のナンバーと通行人と干してある洗濯物を自動で消してくれれでそれでいい。
2019/06/28 10:47
inmysoul
まあ防げんわな。防げないけど自分の娘や彼女、嫁、かーちゃんの裸生成されてオナネタにされるわけよ。喜んでる男は大切な女性が周りにいないんだろう。惨めだな。
2019/06/28 10:48
hobo_king
心底イヤだ。家族がこんなツールで被害に遭ったらとか思うと、ネタにしている人たちの反応がちょっと気楽すぎやしないかと。偽物で溢れれば気にしなくなるとかそういう問題じゃ無かろうに。
2019/06/28 10:52
i2i
すげぇこわい一方で、実際とどのくらい差異があるかっていうのは興味ある。
2019/06/28 10:53
iroha2_hohe
こんなもの公開したら普通に人権とプライバシー侵害なので逮捕案件では?ああそうか、日本人の女性や子供に人権なんてなかったね。父親のレイプでも無罪だもんね
2019/06/28 10:59
fishpaste1214
新時代のアイコラか……アイコラ自体はなんか訴えられたりとかあったんだっけ?
2019/06/28 11:00
ikanosuke
顔をうぷすると男女関わらずちんちんが自動生成されるサービスだったら、私に需要があったのに…。
2019/06/28 11:02
kowa
いろんなポーズの客に服を着せるシミュレーターと技術は似てる。論文やアプリであれば倫理審査でコントロール可能だけど、どう考えても闇ビジネスになるので止まらないと思う
2019/06/28 11:06
nowandzen
そのうちみんな服を着なくなるほど恥じらいがなくなる
2019/06/28 11:11
chako00
カテリン・ボーデンCEOは、「これはとても恐ろしいことです。裸の写真を撮ったことがなくても、誰でもリベンジポルノの犠牲者になる可能性があります。このような技術は一般向けに公開されるべきではありません」
2019/06/28 11:14
onasussu
行為として人権を侵害しているのでアウトでは
2019/06/28 11:15
oriak
将来、裸に対する意識が変わるのだとしても、今現在ではこの技術を使う人に対して悍ましさしか感じない
2019/06/28 11:15
miko88
技術的には可能だし出るだろうな分野ではあるんだけれど、技術に疎い人を含む一般に容易に手を出せるようなものにはなってほしくないなぁコレ……という本音は正直ある。うーん
2019/06/28 11:18
Tailchaser
記事内にこれから男性版も作る(けどサンプルがなかなか集まらなくて難航中)とまで書いてあるのに読んでないやつは文盲?
2019/06/28 11:20
h5dhn9k
現時点では対象が男性だったりすると女体化するんかな?…
2019/06/28 11:24
yosio789
本人のヌードじゃないんだから、「リベンジポルノ」になりようがないだろう。ただのコラだろうが。頭おかしいんか?腹立ったから、こうなったら、リアルの強姦痴漢殺人強姦、なんでも賛成するわ。俺が許可する。
2019/06/28 11:25
rickt
ここまでタルルートの見Hんがないだと・・・
2019/06/28 11:27
kaz_hiramatsu
新しい技術は常にエロによって広がる
2019/06/28 11:28
asataken
すごい、本能に忠実
2019/06/28 11:31
yuma_0211
アイドルとかへの嫌がらせがはかどりそう。今も○器の写真とか送ってるもんね。リベンジポルノ対策になる頃にはその辺の嫌がらせされまくって女性がさらに男性嫌悪を深めている頃だろうな
2019/06/28 11:33
qwerty86
男版だってサンプルデータ集まればすぐできるでしょこんなん
2019/06/28 11:37
watatane
邪魔する奴は指先ひとつでヌードさ。
2019/06/28 11:39
only_fall
ちょっと楽観的にすぎる気がするが
2019/06/28 11:39
kaipu1224
右のサムネがマッチョに見える
2019/06/28 11:40
shachi01
あー、気持ち悪い。やっちゃいけない事ってあって、それをしないのが理性なんだと思う。どんどん退化してるよね、人類は。
2019/06/28 11:59
ryun_ryun
技術革新に人間のモラルが追い付かなくなって来たな。
2019/06/28 12:00
you1
男性版が出来たら、開発者の性別によって見栄を張るか現実的か分かれそう。
2019/06/28 12:01
nanako_csr
たかがアイコラでも、勝手にばら撒かれて周囲に「本物なんじゃないの?」と思われたり苦痛を受けて、作った奴を特定して訴えて裁きを受けさせるコストは一方的に被害者が負わされることになるんだからさぁ…
2019/06/28 12:02
chiguhagu-chan
これにムキーして男性版もどうこうって言ってる人、対抗したいなら裸の写真に服を着せるソフトの開発をした方がいいのでは
2019/06/28 12:06
masayoshinym
自動化されたアイコラ。逆に画像流出しちゃった有名人とかは全部これのせいだって言えば難を逃れる可能性が上がるかもしれない。
2019/06/28 12:06
hiroyuki1983
卒アル完全制覇が捗るな
2019/06/28 12:18
sleepyhedgehog
今は女性版しかないから女性は嫌悪感が先行してるけど、男性版がでたらジャーニーズでやりだす女性が現れて有耶無耶になるやつかと。
2019/06/28 12:18
Sinraptor
「リベンジポルノ」じゃないってのは「リベンジ」でなくて只の攻撃にも使えるって点ではあってる。本物じゃないコラだからどうたらは全くの戯言。
2019/06/28 12:19
zgmf-x20a
ある意味フェイク?
2019/06/28 12:21
napsucks
テレビのなんとかエンジンに実装されてボタン一つで出演者が裸になる未来がくるのかも
2019/06/28 12:23
nessko
男性のサンプルもすぐ集まる筈なのだが、わかっててわざと言ってるのか?(だったら女だけにやってることになる)
2019/06/28 12:23
shibuya12
自分の大切な人がオナネタにされるんだぞ!って発狂してる奴いるけど何で?別にいいじゃん。レイプされるわけでもないんだし実害ないでしょ。写真を裸にされても本人は何も困らないんだからいいじゃん。
2019/06/28 12:25
hanyan0401
私的利用する分には何の問題もないので、アプリの公開は妨げられるべきではなく。「リベンジポルノ被害の可能性」を理由に公開停止を求めるのは、「盗撮被害の可能性」でカメラアプリを規制するようなものです。
2019/06/28 12:28
cozyweblife
id:shibuya12 実害ありまくりだろ何言ってるんだコイツ。オナネタだけではなく誹謗中傷のためにばら撒かれる可能性もあるしそもそも技術に疎い一般人はディープラーニングだのコラだのに区別はつかないし
2019/06/28 12:39
ifttt
エロをおおっぴらにやることが格好良いと思ってるオタクの海外版
2019/06/28 12:40
hinapix
これ何が悪いのって頭緩いこと言ってる人全員、自分の写真をコレでコラしてネット上にあげたら判るのでは?どう考えてもプライバシー侵害だし凶悪な害悪以外の何物でもない。
2019/06/28 12:40
te2u
自分のあずかり知らないところで「事実のような何か」が構築されるのは不快だし、怖い。仮にそれが私的利用であったとしても、その気持ちは拭えない。
2019/06/28 12:45
ayumun
貧乳を再現できなそう
2019/06/28 12:45
osakana110
と言うことは、ワンクリックで服を着せることもできるのでは? 試着室いらなくなるやん。ネットで似合う服買えるようになるやん
2019/06/28 12:49
TownBeginner
これはすごいの来たな。アイコラメーカー。作者は何かの罪で逮捕されたりしないんだろうか。
2019/06/28 12:53
Gl17
これ男性版があっても何ら同等にならず、男の裸は晒されても女性のような社会的侮辱性は希薄なので、影響が全く異なるのでたちが悪い。バイトテロ写真みたいのを捏造作出されたら匹敵するかもだが。
2019/06/28 12:59
elephantskinhead
昔だったらあっても地下に潜ってたようなもんが掘り起こされて拡散するのがはてブとかSNSという
2019/06/28 12:59
Fujitubo
怖っわ。
2019/06/28 13:00
quetz
中学生男子の永遠の夢が叶った!…が何か虚しさと底知れぬ不安を感じるのはなぜだろう。
2019/06/28 13:00
FOx
丁度9時間前に恐らく恒久的な閉鎖を宣言された模様。使ってみたかっただけに残念だ twitter.com
2019/06/28 13:00
Hazel
よし、顔面盛るアプリと一緒に禁止しよう。
2019/06/28 13:10
hawaruna
やっぱり二次元と三次元の区別ついてないんだなとしか…/id:yosio「腹立ったから、こうなったら、リアルの強姦痴漢殺人強姦、なんでも賛成するわ。俺が許可する」通報。本気で言ってんのか。これだから男性不信が捗る
2019/06/28 13:17
tzk2106
めちゃくちゃこわい、、、
2019/06/28 13:25
kokorosha
服を着ていても着ていなくても、他人の写真をアップロードすること自体が問題で、この件固有の問題ではないと思う。
2019/06/28 13:26
pozzacat
使ってみたかったけどもう閉鎖されてて泣く
2019/06/28 13:30
higajoukun
みんな時代についていけんね 正直どうでもいい
2019/06/28 13:33
RondonZoo
"アルベルトさんはDeepNudeの男性版も開発予定としながら、男性の場合はインターネット上でヌード写真を見つけづらいのが難点だとしています。"
2019/06/28 13:38
yulalila
公開はしてないけど既に作って遊んでる技術者は日本にも何人かいるだろうな。
2019/06/28 13:43
regularexception
男にでもできるのでは?
2019/06/28 13:44
otation
2次元でもいけるのかな
2019/06/28 13:45
ot2sy39
想像でスケッチしたのと何が違ってどこでラインを超えるのか考えてみると、実はかなりつかみどころがなくラインを引くのが難しい話な気もする。今回のは透視するのでもないし、盗撮するのでもない。
2019/06/28 13:48
inuinumandx
技術革新は、やはりエロからなんだな
2019/06/28 13:52
nakakzs
日本の場合、アイコラ裁判の前例があるのでアウトになるんじゃないかなと(少なくともその画像を公開した場合)。
2019/06/28 13:52
doksensei
アイドルの水玉コラージュのほうが、なんていうかこう、よりセクシー感あったよねと思った
2019/06/28 13:55
okyozig
ネットに溢れてる画像の典型に合わない身体は再現され得ないということだよね。首から下の個性はどうでもいいんでしょ。
2019/06/28 13:59
modal_soul
こういうの作ろうと思えば誰でも作れる環境にあるのだから、議論すべきは法整備をどうするかなのでは?技術の発展に対して、社会システムが追いついてない。もう人類は文明を後戻りはできないのだから
2019/06/28 14:10
neogratche
リベンジポルノはアイコラでも嫌だろ
2019/06/28 14:17
kenta555
深層学習で顔や風景の生成が簡単になった時からこういうのもいつか出来るだろうとは思ってたけど、やっぱり技術以外の問題が色々出てくるよね。健全な男子としては夢の技術でもあるけれど。
2019/06/28 14:29
y2q_actionman
Traffic が上がりすぎて Offline になっている・・ (6/28昼)
2019/06/28 14:30
n_231
男性版が難しいのは、男性のヌード写真が集めにくい以上に、局部が隠れた状態からの予想が難しい(というか適当になる)のだろう。(同じ人でも変形するし……)。そこが適当でよければいけるはず。
2019/06/28 14:39
hisa_ino
「男性の場合はインターネット上でヌード写真を見つけづらい」はあ?いくらでもあるだろ。お前に探す気が無いだけだよ。
2019/06/28 14:39
suimin28
服を着せる技術の方が発展してほしいな。モデルが着てる服を買って着てみたら…という悲劇を味わうのはもう嫌なんや
2019/06/28 14:42
kenji7418
技術の使い方が最高です。
2019/06/28 14:53
katawax
類似サイト作られてウイルスとか仕込まれたフィッシングサイト出てきそう。
2019/06/28 14:54
hoshinasia
いろいろ試してみたいと思う反面、このニュース聞いただけでエロ画像に対する興奮が一段下がった気がする
2019/06/28 15:17
kappa_live
本物の裸体かどうかの識別のための公式マークを作ろう(提案) 公式マークがついていない裸体はすべて偽物!っていう風潮になれば。。
2019/06/28 15:33
dot
裸体認定組織みたいなの作って予め非公開でホクロとか身体的特徴を登録しておいて、本物の裸体かどうかを判定してもらう、みたいな未来を想像してしまった。
2019/06/28 15:41
cotbormi
スゴイけど、見えそうで見えないのがいいので、水玉コラの方が好き。
2019/06/28 15:48
kunitaka
以前は戦争がテクノロジーの最先端やったけど、最近はエロが最先端になりつつあるな。人間ってのはつくづくロクな生き物じゃないと見事に証明しとる。
2019/06/28 15:48
sajiwo
まだまだレベルが低いが、そのうち見分けがつかないようになるのだろうか。
2019/06/28 16:06
ToTheEndOfTime
これは人間仮想化の始まりかも知れない。まずはAV女優の顔や声を任意の人にすることができるようになる。その次は失った人の仮想化につながり、倫理面での議論を経て、部分的なグリーフケアへの応用になるでしょう。
2019/06/28 16:15
hoshitamotsu
ディープラーニングによる画像編集が出てきた当初から遠からず出るはずと思っていた技術がついに出たか。これが発展すると昔のエロコメ漫画で定番の「かけるだけで誰もが裸に見えるメガネ」が実現する
2019/06/28 16:17
kata28nao
低俗なアプリ
2019/06/28 16:20
hate_flag
人間の尊厳を奪うものなのでこれで作った画像を公開したものは罰を受けるべきだろう。個人で愉しむならいざ知らず
2019/06/28 16:26
tal9
デジタル技術の「進化」によって、記憶・記録の窃盗・改ざんなど今後も様々な問題が生じていくんだろうなぁ
2019/06/28 16:27
hungchang
これは凶悪。けしからんやつだ。/ 「「世界はまだDeepNudeへの準備ができていなかったようだ」とツイートして、ブラウザから利用できたデモ版がアクセス不可能となりました」
2019/06/28 16:41
anofelus
最強の作画資料ツールでは
2019/06/28 17:07
wasarasan
男でやったらキモそう
2019/06/28 17:12
karkwind
世の中怖いな
2019/06/28 17:14
Belgian-beer
実在しないヒトを合成するのと合わせ技で一本になるな。
2019/06/28 17:34
lc475nyks
ここまで来たか……。動画の生成が手軽になるのも時間の問題だから、インスタしてる場合では無くなるな(笑)あー痛快
2019/06/28 17:46
hotatenosashimi
ブクマ数すご。
2019/06/28 17:49
gebonasu30km
ただなー、これが流行るならヌードコラ画像もっと流行ってる気がすんだよなー。
2019/06/28 18:00
mas-higa
男やマネキンでやってみるのはもちろん、人型でないものでどこまでやれるか試してみたい。
2019/06/28 18:13
IzumiSy
すごい
2019/06/28 18:31
atriasft
いやいやどうすんだこれ…って思ったけどリベンジポルノ対策になるってコメント読んでなるほどなとなった。でもまずいでしょ…
2019/06/28 18:38
pandaporn
つかえねーんだが。みんなアクセスしすぎ?
2019/06/28 18:45
mini_big_foo
アイコラが進化した
2019/06/28 18:57
teebeetee
「DeepNudeでの変換を失敗させる服」というテーマでファッションショーを一つやるべきでは。
2019/06/28 20:46
chromoni
未成年の自撮り画像をコレで変換した場合、児ポ法的には誰が逮捕されるのだろうか?
2019/06/28 21:52
preciar
つまるところ画像改変ツールであって、それ以上でも以下でもない。スマホについてる美人に撮れるソフトと何も変わらない/今日び、画像を無条件で信じる奴がアホ。
2019/06/28 21:52
elve
“世界はまだDeepNudeへの準備ができていなかったようだ”せやな
2019/06/28 22:18
gnagaoka
今後使わないことを確約できるものだけが石を投げなさい
2019/06/28 22:44
mito2
そのうちモザイク補完もできそうだけど、日本で作ったら175条的にどうなるんだろう。
2019/06/28 23:14
toro-chan
単なるコラ画像なので、旧技術に属する。昔から公開は違法なんだがな。。IT系は昔から規制されまくってるので。日本の規制はそういう意味ではほぼ完ぺき。規制されていないのは新たな技術。
2019/06/29 00:06
nilab
「今回作られたDeepNudeは「DeepFakeよりも使いやすく、作成も速い」とのことで、より凶悪なフェイクポルノが生まれる可能性があります」
2019/06/29 00:11
cleome088
こういうのめちゃくちゃ腹立つんだけども、男子のすっぽんぽん合成作っても女のこのえも言われぬ屈辱感を復讐できない感じがしてモヤモヤするんだよなー。ブスにはキモい、痴漢には痴漢冤罪が対応したけども。
2019/06/29 00:30
July1st2017
10年以上前にグラドルの水着を肌と同じ色にしてモザイクかけたら全裸にみえるって2chで見たのを思い出した
2019/06/29 03:15
burabura117
複数ネットワークで何度も上書き生成しているのか。pix2pixでも一気に裸画像を生成は難しかったんだな。作るの自体はそんなに難しくないからすぐ互換品出ると思われる。将来ARと組み合わさったら…うん。
2019/06/30 01:39
privates
これさ、空港税関に導入予定だったらもっと荒れてるね。非破壊検査のいち手法と言っても反対するんだろうな。