2017/09/06 13:26:57
stealthinu
どこに判断の重みを置いてるのかを可視化する手法のまとめ。
2017/09/06 14:47:23
taiyo-k
“「精度が高いならそれでいいじゃん?」という説もあるので、まず説明力を持たせることのメリットについていくつか事例を交えて紹介します。”
2017/09/06 14:52:54
santo
大事
2017/09/06 15:08:32
imslotter
めっちゃくっちゃ大事なので後でしっかり読む
2017/09/06 17:14:56
p_tan
DNNの可視化、解釈手法に関するまとめ。
2017/09/06 17:16:07
fractured
「最も人と判定されるデータを合成したもの」がなんか怖い
2017/09/06 17:58:55
kotobukitaisha
DLを実装したAIを社会に導入する上で、判断根拠ってめちゃくちゃ重要だと思う。これがわからないと「神のお告げ」と変わらなくなる。
2017/09/06 18:02:15
mkataigi
説明できるかって今後のAIの発展で本当に重要で、AIに言われたことをこなすだけの世界になるか、AIと話して協議して相互発展的な世界になれるのか
2017/09/06 18:15:01
kana0355
DLでもエラー分析が重要になってくるのかな.
2017/09/06 18:18:50
lbtmplz
職人に根拠を聞いた時の感じを想像した(あまり理解出来てない
2017/09/06 18:28:15
psfactory
ディープラーニングの判断根拠を理解する手法 - Qiita
2017/09/06 19:25:30
shozzy
これは必要だね。「ディープラーニングは根拠がよくわからないが、弊社製品は根拠が明確(キリッ」とか言ってる「AI製品」が多いし。
2017/09/06 19:39:24
SWIMATH2
「最先端の人工知能が判断した『最も人らしい人』の顔が怖いと話題に」と言われそうな画像だ
2017/09/06 19:58:31
jitojito
0.01mm誤差を手で触れてわかる職人さんに、なんで分かるんですかと質問しても、わかるからわかるとしか返ってこない。
2017/09/06 20:18:03
yosukek626
お堅いSIerでディープラーニングに携わる人達には避けて通れない事案
2017/09/06 20:55:30
stratos1976
“「何かを学んでいるはずだが、何を学んでいるかはよくわからない」”
2017/09/06 21:55:05
blackdragon
理解できなかったが、判断基準を人間にわかるように翻訳するためのAIが開発されるのではないかと。
2017/09/06 22:34:36
arc_at_dmz
#sigpx
2017/09/06 22:35:46
carrier_pigeon
ノイズでAIに誤認させるのは面白いな。SFの世界だ。
2017/09/06 22:47:50
kz78
"AlphaGoは囲碁において人を上回る成果を収めましたが、AlphaGoがもし高い説明力を持っていれば、囲碁について人はより多くの知見を得ることができたはずです。"
2017/09/06 23:04:24
z1h4784
こんなの無料で読んじゃっていいのかな。お金取っていいのよ?
2017/09/06 23:13:39
toaruR
ひょっとして、最初にちょっと滲ませる的なノイズ除去工程を入れた方が良いのかな(・ω・)
2017/09/06 23:25:20
hihi01
これは大事。これからは、人工知能にいかに正解を出させるかよりも、どうやったら人間と同じ間違いをするか、どう言う時に間違えやすいかの研究が大事になる。 hpo.hatenablog.com
2017/09/06 23:39:47
akiramaz
めちゃくちゃおもしろい。
2017/09/07 00:14:48
elu_18
ディープラーニングの判断根拠を理解する手法 [Python] on @Qiita t.co
2017/09/07 00:40:07
InoHiro
詳しい
2017/09/07 01:15:44
natu3kan
ノイズ加えると誤認させられるのか。人間と見てるものが違うんだな。
2017/09/07 04:46:19
bluesky0804
重みベクターによる説明。どのように重みベクターを復元するかという問題。だから、経済学のような、与えられたモデルによる演繹的な解釈ではない。モデルを知ろうとする帰納的な分野なので。経済学も学ぶべき
2017/09/07 05:41:44
vanbraam
サーベイ論文だ;この記事と比べると,b:id:entry:343897888の頭の悪さが際立つな;Neural networkの判断根拠を解き明かそうという研究は昔からあると思うが,ここで書かれている手法はdeep learning固有の手法なのだろうか?
2017/09/07 06:39:51
aliliput
人間がやるべきことなのか感はある
2017/09/07 06:52:29
airj12
おお全然わからんハハハ
2017/09/07 08:29:23
mcmht507
あとでよむ
2017/09/07 08:30:23
zyxwv
attention
2017/09/07 08:31:55
kowa
判定根拠はこの位置のこのフィルタです、ってなるのだけど、それが複数組あわされているので言語化するのが困難。聞いてる人に知識と経験を要求するんだよな
2017/09/07 08:44:21
ton-boo
AlphaGOの判断根拠わかるようにならんかなと思ってたら文中に言及あった
2017/09/07 09:12:17
sawasawa12
確かに、根拠が分かんないとビジネスには使えないよね
2017/09/07 09:46:37
hiddy216
説明できたらすごいな、これは
2017/09/07 09:58:11
otihateten3510
DL「全然わからない。俺は雰囲気で猫を判別している」 そしてよく当たる
2017/09/07 10:34:29
stepon
あとで読むには長すぎる
2017/09/07 11:38:16
deep_one
(まだ読めてない)ディープラーニングの本を読んでもこの辺が全く書いてなくて一体どうするんだと思ったのだが、方法論が無くはないのか。/「最も人と判定されるデータを合成したもの」それ、オカルト雑誌で見た。
2017/09/07 11:48:55
sds-page
名プレーヤーが必ずしも名監督になれない的な
2017/09/07 11:54:14
kns_1234
"道路標識を誤認させるようなことも可能という研究もあります"
2017/09/07 12:12:53
takumikabu
大作だ
2017/09/07 12:49:57
sulgraphica
ディープラーニング
2017/09/07 15:46:32
takapiko0819
ディープラーニングの判断根拠を理解する手法
2017/09/07 16:10:15
tgk
adversarial attack
2017/09/07 17:27:16
mskn
理解したい。
2017/09/07 19:04:34
n_231
アホな人間に理解させるのは大変。シンギュラリティの到来が(人・機械両陣営から)待たれるというものだ。
2017/09/07 22:46:46
quwachy
医者になんでそう思うのか聞いてみな、もし間違ってたら全財産かけるかも医者の誤診率は30%くらい、ほとんど根拠なんてなしになんとなくで診断してる
2017/09/08 12:46:10
eerga
斜め読みしかしていないけど「AlphaGoがもし高い説明力を持っていれば」という一文が分からない。説明される側に説明力を付けるの?囲碁の盤面の中でも特に影響を与える場所を抽出できれば~みたいな話???
2017/09/08 14:21:04
Cujo
AIの研究がある程度進んだら次にリソースをつぎ込むべきなのはこの分野じゃないのかな(その前にAIにそんな無駄なリソースはないので「人類は不要」と判断されてり。。。。。。。。