2019/12/08 22:28
kechack
「アイコラ」の進化系?
2019/12/09 07:10
mkusunok
Deepfakeをあたかも本物のようにfakenewsとして流布させるのはアウトとしても、つくることや研究そのものを禁じると問題も起こりそう。技術も使い方次第だからな
2019/12/09 07:51
samu_i
なにTube?
2019/12/09 07:53
mory2080
木を隠すには森の中で、恩恵を受けてる人も微レ存?
2019/12/09 07:55
maturi
ひらわ博さんではなく、たいら和博さんのようだ
2019/12/09 08:03
kkobayashi
こわ・・・
2019/12/09 08:34
vismaxima
deepfakepornはマジでevilだと思う。
2019/12/09 08:41
shira0211tama
このまえガッキーのこれみたな。
2019/12/09 08:50
thefla
動くアイコラか…
2019/12/09 08:51
mayumayu_nimolove
なんか軽くコメント書いてるだけなのに後出しジャンケンで政治の話とか偽善で私のコメントがリンチされてるw叩くなら私ではなくコラ作ってる人に言えば?私を叩いても何も変わらん/結局最新技術はエロで普及されてい
2019/12/09 08:58
umyutan
Deepfakeの派生で、開発停止したけどNSFWな DeepNude というのもある。機械学習の剝ぎコラ、GAFAが後手後手に回ってるイメージ。
2019/12/09 09:03
abll
トランプがロシア人娼婦に黄金水を浴びせられて喜んでいる現場の動画が出てきても「ディープフェイクだ」と言い張れば通る時代になった。
2019/12/09 09:05
lli
えなりかずきに早くシャワー浴びて来いよと言わせられるのか
2019/12/09 09:07
manaplus
けしからん…技術や3D CGの進歩はいずれこのようなことに発展するとは思ってた
2019/12/09 09:16
iyochoo
「これはディープフェイクであって事実無根!」などと言いはって、好き勝手する輩がこれから沢山でてきそうで心配
2019/12/09 09:23
catseye3211
オープンに顔写真を公開するなんてことも減っていくんだろうな。クローズドコミュニティに回帰していく流れがますます
2019/12/09 09:24
zgoto
その頃、メルカリではアイコラ画像をプリントし生写真として販売し売れまくる状態。運営に幾ら詳細を通報しても削除対応ゼロw未成年のアイコラやパンチラ、ヘア見せてるコラすら削除無し。対応する気ないんだろうな
2019/12/09 09:34
tourism55
そもそも、映画のポスプロ作業(スタントの顔変え、亡くなった役者の追加シーンとか)くらいしか平和利用が思いつかない技術だ。架空の顔とすげ替えられるようならまた違うかな…
2019/12/09 09:38
sub_low
一部の人間がアングラで楽しむためのもんで、表に出てきちゃダメだよこういうのは。
2019/12/09 09:50
fkatsya
「流石に動画(や音声)は捏造できないだろう」って思い込んでいた所にこういうのが出て来てるとついつい信じちゃう。でも「動画も音声も捏造可能」ってなると信じるものが少なすぎて色々生きづらいなぁ。
2019/12/09 09:57
tarume
「おれたち」がやらなければ「あいつら」がやる案件。技術は誰にだって平等で、アルゴリズムの拡散は止められない / あるとすれば計算機資源格差。<中枢>のスパコンが真正と認めた動画だけが証拠能力を持つSF世界
2019/12/09 09:58
shufuo
これはアイコラの進化版の話だけど、最近、モザイクを剥がした(という名目だが、別の人の性器を合成した)動画が無修正動画として裏で流通してたりするんだよね。週刊漫画の広告で売ってたアレが実現した感。
2019/12/09 09:58
yuichi0613
これは危機感を持った方がよさそうな技術/なにかを持っている人ばかりが被害にあいデメリットばかりしかないように思える
2019/12/09 10:07
Snail
画期的な署名方法が開発され、映像ひとつにしても本人の署名が無いと本物と信用&証明できないという時代が、もう目の前に来ているのかも知れず流暢なことは言っていられない気がする。
2019/12/09 10:11
houjiT
天皇の写真燃やしたのに「日本人として」怒ってきた国の、同朋の女の写真は嬉々として切り刻んで貼り付け合いっこし「技術だ普及だ」っていってるコメ欄醜悪じゃない?それは本当にエロで技術なの?
2019/12/09 10:14
hirolog634
この流れは止めようが無さそうだし、一般化したら強制出演させられた人を救えたりするのかな?
2019/12/09 10:14
kaos2009
“NPO法人「ファクトチェック・イニシアティブ」(FIJ)が12月5日、インターネット上のフェイクをめぐるセミナーを東京都内で開いた。セミナーでは世界中で問題視されている「ディープフェイク」がひとつのテーマとして
2019/12/09 10:17
Panthera_uncia
ニュースについては劇団員が一般市民のインタビューで出てくるのと何が違うんだって気はする
2019/12/09 10:17
auto_chan
ディープなフェイクでVR映像(180度)まで作るプロジェクトがあったら投資したい。
2019/12/09 10:17
kuzudokuzu
あ、これ広まってなかったものを無駄に広める記事だ。
2019/12/09 10:24
x_musa
うおおお!がんばれ!がんばれ!
2019/12/09 10:24
bmonoral
発想がアイコラから進化してないの草
2019/12/09 10:28
majidekuzu
動画のタイトルは消してあげなよ。検索でたどり着いちゃうよ?
2019/12/09 10:32
komutan1
見たけどタイトルにアイドルの名前が入っていてはじめて「あ、あぁ、似てるかも」というレベルだった。たぶん動画だけ見せられても分からん。
2019/12/09 10:36
kibarashi9
ネットで公開って流れが被害を拡大してるなあ。
2019/12/09 10:38
kozilek
逆に本物の流出も偽であると言えるようになったわけで、政治家が失言→ディープフェイクだ!とかもその内おきそう。そんな知恵はないかな?
2019/12/09 10:47
pero_0104
ところでアイコラって普通みたいにギャグ的に言われたりするものだけど、実は人間を人間としてみてない恐ろしい行為だよなー。令和には意識変わりそう。
2019/12/09 10:48
skgctom
仮に全員が100%偽物と知っていたとしても、自分の顔を使って不名誉な動画を作られれば傷つかない人はいないだろう。いじめ目的で自分や自分の家族でエロ動画作られたり、自殺者と逮捕者が出なきゃ学習できないのかね
2019/12/09 10:48
LordLuckRock
これ、規制するにしても難しい話になりそうだなぁ
2019/12/09 10:49
tamtam3
技術とは新しい可能性を開く鍵であって、使う人間が悪意があれば、それは人間が悪いのだ by 全米ライフル協会
2019/12/09 10:54
key_llow
自分で描かずに推し(二次元男性)のエロ画像が手に入る可能性も、ディープフェイクの先にあるのだろうか…(ゴクリ)
2019/12/09 10:55
cl-gaku
生で見たものと信用できるソースがあるもの以外信じないという基本的なリテラシーが広まるきっかけになればいいな
2019/12/09 10:55
thirty206
架空の人物の写真を大量生成する技術とこういう技術が合体したとき、それって誰の人権を侵害することになるんやろか。
2019/12/09 10:56
takamocchi
整形、ディープフェイク、MATT加工、もう「何が本物か」じゃなくて「コンテンツとして何を許容するか」を各自が判断する時代になってる。
2019/12/09 10:57
kutabirehateko
当然のようにポルノに組み込まれる被害は女性に集中。これでこの世界が男女平等だといわれてもね。高みの見物する前提で浮足立ったブコメにも引く。
2019/12/09 11:11
z1h4784
この技術は化学兵器や偽札の製造技術と同様に扱ってよい。厳密に規制すべきもの
2019/12/09 11:13
blueboy
実物を見たけど、本人の顔というより、よく似たそっくりさんレベル。類似度 75% 。 / 顔を流用された被害ばかりが話題になっているが、ボディを流用された人はどうなの? そっちの被害を考える人はいないのね。
2019/12/09 11:13
bunkashiken
ポルノに限った話じゃないよね。公然とコラ画像が量産されていることが異常だ。ディープフェイクを含むコラ画像を作成し頒布した場合は罰を受けてもらうべきだね。
2019/12/09 11:17
photosome
被害にあっている女性はアメリカ>韓国>日本の順。kpopアイドルが日本のAVをベースにdeepfakeが作られていて、韓国人が日本語を話す映像が多数公開されている。日本なら過去逮捕者も出たけど海外はどうするんだろう。
2019/12/09 11:19
miko88
捏造のハードルがどんどん下がる時代
2019/12/09 11:19
fb001870
そんなことになってるんだ
2019/12/09 11:20
Leen
「エロ」と認識した途端に判断力が低下する現象に名前をつけたい。一人で低下してる分には構わないのだが、公言するわ行動するわで迷惑そのもの。
2019/12/09 11:27
inazuma2073
こんなに巨乳のわけがない!ってなりそう。
2019/12/09 11:27
falkbeer
逆に言うと映像が証拠にならない時代の到来か
2019/12/09 11:31
noa777
今後、音声も動画も証拠能力がなくなってしまったら、権力者や犯罪者にとって都合の良い社会になってしまうね
2019/12/09 11:33
Yagokoro
もう、この手のフェイクやらデマやらは法規制した方が良いでしょ。
2019/12/09 11:33
oguratesu
新しいおもちゃ見っけ。
2019/12/09 11:33
zenkamono
上位ブコメ「被害は女性に集中。これで男女平等と言われてもね」←男の性欲が女に集中するのが男女平等に反するの!?なら女性も男性のディープフェイクポルノを作ったら平等になるんじゃない?
2019/12/09 11:35
TakamoriTarou
確か、現状だと明確に罪にならないっぽいので(裁判で人権という方面から不法行為を立証するしかない)まずはきちんと明確に罪に問えるようにするところから始めないといけない問題。Web屋はまた反対するだろうが。
2019/12/09 11:38
thesecret3
ポルノではもともとアイコラ画像はあって動画になっただけなので法的な何かが変わるわけではなさそう。政治のほうが問題かな。世界中の犯行声明を大混乱に陥れることができる。
2019/12/09 11:42
Ashburton
動画って結局1秒60コマの写真だから、自動でアイコラを作る技術があればそんな難しくないのか。
2019/12/09 11:43
razokulover
関係ないけど記事中の「実際にアップロードされている日本人のディープフェイク動画(画像を加工しています)」がいい塩梅でうまい
2019/12/09 11:44
otihateten3510
アイコラ改
2019/12/09 11:49
futonchan
被害は女性に集中ってので男女差別持ち出すのは違くないか ただ需要がそっちの方が高いから増えてるだけやろ //ああ需要がある時点でそもそも男女平等は成り立たないって話か文盲だったわすまそ
2019/12/09 11:56
UME
エロが技術革新を促してる事例
2019/12/09 11:57
halpica
著名人のポルノ動画がスキャンダルではなくなるのは、著名人にとっても良い事では?
2019/12/09 12:03
shinichikudoh
「天皇の写真を燃やすのはダメなのに日本人女性のアイコラはいいのか」みたいな人気コメがあるけど対極にいるのは「日本人女性のアイコラはダメだけど天皇の写真は燃やしてもいい」みたいな人なので無意味に思える。
2019/12/09 12:04
muchonov
実際にどれぐらいdeepfakeコンテンツが流通するかに関わらず、ネットユーザーに「そういう技術がある」という認識が定着するだけでも「信じたいものだけ信じる、信じたくないものは信じない」傾向が強化されるとおもう
2019/12/09 12:09
nephar
なんだアイコラの動画版か・・・参考動画はどこぉ・・・ここぉ・・・?
2019/12/09 12:10
konpey
最近増えてきてる、韓流アイドルの顔とか。本当にリアルで見分けがつかない。
2019/12/09 12:12
mopo123
技術には技術を。合成写真、動画を判定するソフトを、動画サイトやブラウザにでもつけばいい。
2019/12/09 12:14
andonuts
deepfakeの現在地を自分の目で確認しようと思いpink板のスレを見にいったら、動画リンクなんてそっちのけで熱い技術論が交わされており5ch屈指の有益スレみたくなってた。良いか悪いかは別として。
2019/12/09 12:15
yanosworkout
透かし文字でdeepfakesって入れる規制は必要かな。
2019/12/09 12:16
poupe
これ嫌がらせとして使われたら一般人は判別できるかな?いじめもそうだし、職場でも普通に悪評とともに使われたらフェイクの立証が難しそう。どう使われるかわからないからエロ技術云々なんて言ってられないと思う。
2019/12/09 12:20
mouseion
桜美林大学の平和博さん←これ。いい名前だな。付けてくれた両親に感謝しないとね。僕、もう名前見ただけで幸せな気持ちになったよ。
2019/12/09 12:21
monofreely
Facebookがディープフェイク検出の開発を進めている。じゃあ安心かというとそうでもなく、オープンソースで公開されるのでさらにディープフェイクが強力になってしまうのが懸念されている。
2019/12/09 12:26
bigapple11
盗撮からの誹謗中傷で韓国アイドルが自殺したばかりじゃないか…。危険度と加害性が高すぎる。これは法で禁止されて当然だと思う。一般人が「遊び」目的で使っていいものではない
2019/12/09 12:27
kazoo_keeper2
GAN(敵対的生成ネットワーク)とは何か?レベルの知識があれば、discriminator の方を活用して対抗すればよくね?くらいの発想はすぐ出てくる。「ポルノで技術普及」とか言ってる人は、たぶん本当は《技術》に興味ない…
2019/12/09 12:27
tk_musik
正直これは規制すべきだと思う。技術の応用さもありなんだが、さすがに人権の侵害。見分けの難しさが根拠。
2019/12/09 12:31
hate_flag
作成自体はAIがソフト的にやっちゃうので禁止しようがない。公開を名誉棄損として罪に問うことしかできないのではないか。
2019/12/09 12:32
shun_libra
「必要は発明の母」なので、エロが技術進化のきっかけになってきたことは否定できない。しかし新技術がきっかけで人権侵害が起きるなら法規制が必要。技術革新と法整備が、文明の両輪になることが望ましいと思う。
2019/12/09 12:34
aienstein
「明らかな嘘でも初めて触れた情報は、無意識に人物評価の印象に影響を与える」「訂正情報は初報の数分の一しか広まらない」「情報を受けてる人は大多数が深い興味はなく瞬間で判断する」となると規制しないとヤバイ
2019/12/09 12:37
ga_kun
女性の身体に有吉弘行の顔を貼り付けた動画とかあるよね。ぜんぜん関係ないけど『麒麟がくる』は沢尻エリカ撮影分に川口春奈をdeepfakeしよ?
2019/12/09 12:39
knok
偉い人は講演動画が多くあるので声の模倣もDLでできて詐欺に使われると聞く
2019/12/09 12:39
kamonyan1
イメージを傷付ける今はまだ序の口。犯罪の証拠に使われたとしたら怖すぎる。
2019/12/09 12:41
syunzone
これだけ強い男性の性欲を甘く見過ぎだったと思う
2019/12/09 12:42
morita_non
これからは流出しても致命傷にならなくなる。と逆に考えるんだ。
2019/12/09 12:42
raitu
動画アイコラ
2019/12/09 12:43
emt0
みくちゃんもコレだったんだね。解散!
2019/12/09 12:49
ardarim
新しい技術はどんどん悪用されていく…
2019/12/09 12:51
w_bonbon
ガチ流出してもdeepfakeのせいって言えるようになるな。
2019/12/09 12:51
shoh8
人前で喋らない、人に指紋や静脈、虹彩等の生体認証見せない、人前に姿を明かさない、現実度(RR)を上げない。
2019/12/09 12:52
lady_joker
ああ、残念ながらこれは間違いなく流行るだろうね。いまのネットの知性を見る限り、人類が対応するのにも時間はかかると思う。法整備でどこまで対応できるか
2019/12/09 13:02
Hazel
これ自分の顔使った場合も規制されるかな?またも表現の自由とぶつかりそう。
2019/12/09 13:04
benkeiblog
一般化するんだろう?ダメやん(ノ△・。)
2019/12/09 13:09
frothmouth
“「政治家が行っていないことを言ったかのような動画を作成し、拡散させることも可能になっている」BuzzFeedが2018年4月に映画監督のジョーダン・ピール氏と作成したオバマ前大統領の「ディープフェイク」動画は、そう
2019/12/09 13:14
nanakoso
アイコラが動画になって帰ってきた
2019/12/09 13:19
myogab
木の葉を隠す森…になってゆくのかな…
2019/12/09 13:22
tohima
これはゴリゴリの有罪だし悪質だからなあ
2019/12/09 13:23
tetsuya_m
エロのパワーは2019年も健在。それにしても使い方によってはヤバイし、動画も全く信用出来ない世界になってしまったんだなぁ
2019/12/09 13:27
ackey1973
いっそネット上のポルノ動画はすべてフェイクの可能性が高く、基本的に世の中すべての人のポルノ動画が存在するような世の中になってしまえば、もはや「人権侵害」でもなくなるのだろうか?(極論)
2019/12/09 13:30
zigzag1900
むしろ、流出が無効化されて、流出を気にせず性解放が進むと捉えてもいいと思う。技術が悪者扱いされてはならない。
2019/12/09 13:34
moqojiy
紅白で美空ひばりをAIで復活とかやるようだけど、故人をおもちゃにしていいわけないと思うがなぁ。
2019/12/09 13:39
VikAkoona
これが女性差別だとか言っちゃってるお馬鹿さん。野獣先輩って知ってる?
2019/12/09 13:44
watatane
日本人アイドルも被害にっていうけれど日本だとアイドルのそっくりさんが出演するパターンの方が多そう。
2019/12/09 13:47
udongerge
技術が進むのを止めることは出来ないし、動画の証拠能力が失われたということですね。
2019/12/09 13:51
hanyan0401
名誉毀損に該当するので人権侵害ですが、行われていること自体はいわゆる「アイコラ」の延長線上ですから、新たな法規制は不要かなと。/ id:blueboy 「ボディの流用」は顔や声と違って特定困難だからでは?
2019/12/09 14:02
gciqq
ひどいなあ。
2019/12/09 14:08
inmysoul
みんな自分の全く関係ない主張に重ねてドヤっててウケるw
2019/12/09 14:19
kunitaka
技術の進歩は本当に人間を幸せにしてるのだろうか?野生の動植物にとって、科学技術の進歩は間違いなく迷惑や。ならば人間にとってもありがたくない事って可能性があるよなぁ。
2019/12/09 14:25
yulalila
商業では写真も動画も加工ありき。自分で撮ったもの以外、世の中無加工の画像や動画などないと啓蒙した方がマシかな。広告業の人は絶対反対するだろうけど。
2019/12/09 14:26
dokuhunt
日本にも首相が児童買春、しかも少年という大スキャンダル映像が流された際に偽物だと言い切った事例がある。その論拠は首相が男塾出身であり死闘で受けた無数の傷がない!ということでした。剣桃太郎さすがやで
2019/12/09 14:28
modal_soul
こういう事例必ず技術が悪みたいな認識出てくるけど、使い方間違えた人間が悪いだけ。悪用を止するべきで、技術の発展を阻害しても何も解決されないし、中国みたいなモラル欠如したやつが勝利するだけになる
2019/12/09 14:28
ysync
アイドルという背景を差し引けばAV女優のほうがルックスだけはいい問題は?w
2019/12/09 14:31
magefee
これに関しては本人の同意がない限り違法としても良いと思う
2019/12/09 14:31
vanillableep1618
アイドルコラージュの動画版。昔はアイコラ職人の腕の良さが、そのアイコラ写真の出来不出来を決定していたのだが、今ではAIによってより自然にコラージュできてしまう訳だ。
2019/12/09 14:34
amd64x64
ディープフェイクに気をつけようと有名人に言わせる動画をディープフェイクで作れば啓蒙効果が高そう。
2019/12/09 14:35
peta0227
個人の被害ももちろん心配だが映像の証拠能力がどうなるかとか司法への影響も気になる。
2019/12/09 14:40
nanako_csr
少し前に中国ドラマの女優の顔を男KPOPアイドルにすげ替えるのが流行ってて(中国アプリで簡単に作れてweiboから流れてくる)、皆「女の子にしても美人!」とか無邪気に喜んでたし、使用者のモラルに期待するのは無理そう
2019/12/09 14:44
hage2020
何が困るって芸能人名書いてあっても誰だかわからんのよなぁ…興味なさすぎて。
2019/12/09 14:51
fuyu77
政治的な動画捏造の方も結構怖い。動画はリアルっぽい感じがするし、Twitterとかで流れて来たら簡単に騙されそう。
2019/12/09 14:54
h5dhn9k
批判ももっともだけど。もうこうなってくると実写と見分けが付かないポルノを作れる訳で、真に女性をポルノの表象から引き剥がせるのでは?…… 実在の女性が不要な訳で、全部仮想にしてしまえる訳で……。
2019/12/09 15:16
thinktaro
adobeがphotoshopに実装したようにフェイクかそうで無いか機械的に見分けてくれるツールが必要だ。
2019/12/09 15:26
migurin
外国人はサイト名とかにフェイクって入れてるのがちょっとすごいなと思う。リアルリーク動画とかにしないんだな。
2019/12/09 15:26
hatebutabooboo
本人の心の傷はフェイクじゃない。
2019/12/09 15:28
miz999
エロがテクノロジーを進めるみたいな話は毎度出てくるが、今回もポルノ関連のカネが研究開発に還元されることもなく、アングラの有料サイトで細々と小銭を稼いでるだけなので、エロの貢献は眉唾と思う
2019/12/09 15:32
gaebeg
秒速CTOは色んな意味で早すぎた
2019/12/09 15:36
tusagi
FC2で販売してるの見たことある
2019/12/09 15:39
waot209
「違法としても良いと思う」と言ってる人いるけど現状すでに違法(名誉毀損)では? アイコラについてぐぐると複数の弁護士が違法と答えてるよ。
2019/12/09 15:46
crevice
何年後か分からないけど、いつの日かPCがあれば利用者がいつでも顔を入れ替えられるようになるだろう。そうなったら何をどう取り締まることが出来るんだろうなぁ。
2019/12/09 15:47
jabberokkie
もう引き返せない楔は打たれてるんだから、無くす以外の対処法を考えないと。善意では対処不能だよ?
2019/12/09 15:51
pitti2210
公式チャンネルの信頼度が上がり、音声や動画、写真の信頼度が下がるのだろうな。裁判とか大変になりそう。地獄の釜が今開いた。
2019/12/09 15:56
vanish_l2
照英(ry
2019/12/09 16:11
yujimi-daifuku-2222
気持ちは分かりますが、ちょっとブクマの流れがポルノに偏り過ぎです。/どれほど良心的な人物であっても、恐ろしくリアルに差別発言をさせることが出来る。/そしてそれがフェイクであると証明するのは非常に困難です
2019/12/09 16:17
BIFF
動画では「事実」を確認できなくなるのは痛いかな。。
2019/12/09 16:39
differential
最新技術は軍事とエロから、ってドヤる決まり文句も、ひょっとしたら「(ジェンダー的な)男の目線」なのかもしれないよねって思ったり。
2019/12/09 16:47
plagmaticjam
こうなるとテンプレートの動画に顔だけ変えて出演料を支払うみたいなことになりそう。
2019/12/09 17:04
snare_micchan
動画が証拠にならなくなると利益を得る人達が進めそうだなあ
2019/12/09 17:06
cartman0
なるほど,コラ画像が動画に変わったのか..
2019/12/09 17:15
codingalone
もう人間の目・耳で判別は不可能な世界がやってきてるよね。ブロックチェーンでデータの正当性を担保するんだろうか。
2019/12/09 17:18
cheapcode
「A.Iコラ」って言えばいいのかな?
2019/12/09 17:31
scipio1031
ワイドナショーでやってた「写真を元に解析してまばたきする遺影」も近い技術だよな。タブーに触れるかと思いきや、奥さん家族みんな泣いてたから、捨てたもんじゃないのよねー。
2019/12/09 17:34
KAN3
何故かあいトレと比較してるコメントがあるけどこんなもんが補助金もらってる美術展で公開されたら右から左まで全員猛批判して一瞬で展示中止、補助金停止、再開もなし、主催者は逮捕で終わるんじゃないかな。
2019/12/09 17:43
gendou
真偽の判断が付かない世の中になった。自分を信じるしかないなぁ
2019/12/09 18:01
kotobuki_84
アイコラ2.0……では済まない規模になってるのか。プラネテスの終盤にも近いガジェットが出てきたな。
2019/12/09 18:02
sumiretanpopoaoibara
確固たるフィルター構築がなければネット情報の信用性そのものを揺らがす問題になるね
2019/12/09 18:07
imakita_corp
2倍の手間をかければ自分と美人女優との思い出を作れるなw自分は仮想整形でちょっと格好良くしたりして。それじゃあ2倍や3倍じゃ済まないか
2019/12/09 18:08
chako00
NPO法人FIJ。2018年に入ると別のユーザーが「FakeApp」というツールを「Reddit」で公開。こうしたツールを用いたフェイク動画、有料サービスも出現。平さんは「ディープフェイクは、女性に対する人権侵害の問題になっている
2019/12/09 18:12
ultimate-ez
VHSやDVDの普及、インターネットやVRの普及、そこと同列に「技術の普及だ!」と喜んでいいものではない。
2019/12/09 18:21
augsUK
GANは発言を精密に捏造することもできる。密室で録音したとして、パワハラ発言や差別発言を流したら見抜けずクビかな。裁判の証拠として提出したらどうなるだろうか。不倫の証拠とかゼロから創れる。
2019/12/09 18:24
dev-masahiro
信頼性の担保された公式映像メディアへの回帰が始まりそう。それら以外はネット掲示板の流言風説怪文書扱い
2019/12/09 18:29
jankoto
ディープラーニングは既に専門知識の無い素人でも簡単に出来るようになっている。規制は無意味。シコられない権利を放棄するしかない。
2019/12/09 18:36
jacoby
deepnudeは人類には早すぎた
2019/12/09 18:41
lifefucker
今後GANを見抜く技術は重要になると思う。ポルノにしてもフェイクニュースにしても。サービス側で自動で弾かないと。
2019/12/09 18:45
dgen
アップでそれほど動きの無い動画ならまだ不自然な感じが残ってるからわかるな。さあこれから大変だぞ~。放置すれば何も信じられないカオスな時代が到来する。
2019/12/09 18:48
Sinraptor
まるで核兵器が拡散してるような状況で、これを技術の進歩とか喜ぶ奴はどんだけアホなのか。
2019/12/09 18:50
t-murachi
アイコラの頃から肖像権侵害、名誉毀損の線で訴訟沙汰もあったような…(´・ω・`)
2019/12/09 19:05
greenT
ThisPersonDoesNotExist.comと連携して平和利用すべきだ。こういう技術は
2019/12/09 19:07
arearekorekore
すげーな
2019/12/09 19:10
torish
JASRACが私的顔変え権利とか言って徴収しそう
2019/12/09 19:25
toshiyukix
ディープフェイクを見つける技術をyoutubeあたりは研究してそう。自動で検知する方向でないと、減らないだろうな。
2019/12/09 19:25
KoshianX
動画すらもはや信憑性のあるものではなくなったということよな。しっかしアイコラの延長だと思うんだが技術発達でアイコラが社会問題になるとか20年前には想像すらできなかったな……。
2019/12/09 19:45
yutashu
喜んでる奴、自分のパートナーや娘のfakeエロ動画を勝手に作られて拡散されるのを想像してみてくれ。
2019/12/09 19:53
davadava
何を信じればよいのやら・・・ニュースもどこまで本当なのやら
2019/12/09 20:07
hiduki001
今の若い子みてるとこれをガチだと勘違いしそうな危うさを感じる。犯罪につながらないといいけど
2019/12/09 20:20
kaz_the_scum
これは止められないだろうな…
2019/12/09 21:05
triggerhappysundaymorning
アイコラの完成形である.
2019/12/09 21:18
eye4u
犯罪やら人権がって話があるけど、性衝動解消による犯罪抑止効果のほうが遥かに大きいやろ。真の問題は少子化だな。ますます実物が勝てなくなる。
2019/12/09 21:27
absolute-myself
技術も使い方しだいですね。パット見では分からないのありますから…。
2019/12/09 21:38
blackdragon
写真も動画も音声も偽造の技術が上がっていくと、証拠の確からしさも難しくなっていきそう。
2019/12/09 21:46
Ta_Howait
本当に真偽判定が不可能な動画が作成できるようになれば、リベンジポルノとか若気の至り発言とかをフェイクだって言い張れるようになる。デジタルタトゥーをも消す、過去ロンダリングが可能に!
2019/12/09 21:50
HanPanna
こんなに技術が発展しているのに、何故はてなではまともにスターの表示がされないのか?私に改修せてくれ休日に行くから。
2019/12/09 21:54
vkara
エロの為なら人権侵害でも何でも平気でしてしまう人達がいるんだよな。これはさすがにダメだと止める人もいないのか。
2019/12/09 21:54
stand_up1973
肖像権の侵害に当たらんの?政治家のフェイク映像もシャレにならんし、難しいとしても取り締まるべきではないのか。
2019/12/09 21:59
north_korea
Twitterに何人かディープフェイク職人がいるのを最近知った。クオリティが凄くて初見だと騙される人もいると思う。
2019/12/09 22:22
AgentScully
もう何も信じられない。これからは、政治家は一軒一軒家を回って実際に話したり、友達にも恋人にも時間かけて会いにいったり、とか昔みたいな対面コミュニケーション価値が戻っていきそう。
2019/12/09 22:23
Q16K
偽のインタビュー映像とか作られたりしそう。プラネテスでやってたように
2019/12/09 22:31
mventura
エビデンスとしての動画の信頼性が損なわれるのと、デマを流されたら否定するのがほぼ困難なのと、かなり深刻。肖像権・プライバシー侵害ではあるんだろうけど。うーん。
2019/12/09 22:40
sukekyo
いわゆるアイコラ程度にしか流行らないとは思う。いっちゃなんだけど、あれにも芸術的な名作があったようになんらかの名作は出てくるだろうけど現在のアイコラの感じと同じ末路をすごいスピードで駆け抜けそう。
2019/12/09 23:13
hankatsuu
本当にうろ覚えなんだが、村上龍の小説にこういうのがあったような。
2019/12/09 23:21
shantihtown
“他人の顔写真をポルノ動画に重ねたり、表情を勝手に変えたりするAIによる動画の加工「ディープフェイク」/政治家が行っていないことを言ったかのような動画を作成し、拡散させることも可能に”
2019/12/10 00:02
myaoko
こういうのこそ名誉毀損にするしかないのでは。敷居が下がって中高生のいじめに使われないことを祈るし、使ったやつは罰せられてほしい
2019/12/10 02:16
CocoA
ただのアイコラ/"被害者が女性が多い"="女性が差別されている"となぜ考えるのだろう?金持ちは泥棒の被害が多いで、金持ちは差別されているとは言わんでしょ。/死亡したアイドルのディープフェイクならいいの?
2019/12/10 02:24
murilo
他人の被害を技術を普及させるエロで片づけられちゃう思考、フェイク作ってる奴らに通じるものがあるな。
2019/12/10 02:29
limner
現行法がなかなか追いつけてない分野。リベンジポルノ含め、国際的な共通の法整備と運用が必要に思う
2019/12/10 04:15
hemoge
画像も貼らずにスレ立てとな?
2019/12/10 05:53
sanam
こういう技術に無邪気に喜べる人はのんきだね。これ、男がセクハラや性犯罪してるって“証拠”の捏造にも使えるよ。
2019/12/10 08:38
daishi_n
今まで手作業だったアイコラが機械学習の応用で自動で捏造動画まで作れるようになったのがブレイクスルーだよね。肖像権の侵害や名誉毀損で訴えはできても、その後のコストがバカにならない
2019/12/10 10:23
goadbin
アイコラの時は国内の個人だったから対応できたけどこれ中国でしょ。芸能プロ的に対応できるの?
2019/12/10 10:26
kamayan
フェイクをフェイクだと証明するのがすげえ難しくなる気がする…
2019/12/10 10:52
hatehenseifu
右派デマサイトやナンチャラサポでは政治的フェイク画像をやらかしそうな悪寒がしますな。
2019/12/12 18:44
Seiji-Amasawa
「オンライン上の有料サービスも出現。1時間あたり2ドルほどの利用料で、「顔を丸ごと交換するのに4時間」で済むようなサイトも存在する」