2019/05/18 22:49
aruiha_shikashi
“公正さは社会的かつ動的なのであり、統計的なものではない。完全に達成することは不可能だし、民主主義の下での監視と議論によって常に改良されていくべきものなのだ。”
2019/05/19 02:27
cartman0
統計的最適化の話か、結局罰則項に全てを含めるのは無理という
2019/05/19 02:58
gimonfu_usr
 ("公正という概念は、単体で完結するシンプルな数学的定義に落とし込むことはできない" ) (血液型を採用条件にした例ではそのあいまいな性格分類が叩かれたけど、それが数値であらわされるようなものであったら )
2019/05/19 03:29
tarume
社会に潜む差別を、アルゴリズムとして外部化し、定量的に議論できるようになる。前進でしかない / 「可視化なんかしたら問題が明らかになってしまうじゃないか!個人の責任にしておけないじゃないか!」 / 子は親の鏡
2019/05/19 06:11
morinaga3
アルゴリズム 公正公平
2019/05/19 06:51
yoshihiroueda
ブラックボックス化したAIだとそこに差別的な判断基準が含まれていても分からない。この危険性はさらに大きくなると考えられる。
2019/05/19 06:57
kamei_rio
過去のデータから未来の正解が出るなら苦労はしないので、これは福祉の役目という話では
2019/05/19 06:59
Dursan
基準もクソも「教師あり学習」でやったら元のデータを反映するだけって話じゃん。しかしそこに「公正」の概念を「何人の認知バイアスを持ち込むことなく」形成するかなんて神でもない限り無理だけどな。
2019/05/19 07:26
dogdogfactory
「犯罪が多いのはあの地域だ」の統計が「あの地域出身者は犯罪者予備軍だ」の差別になるのは当然。差別はたいてい「傾向と対策」から生まれる。
2019/05/19 07:29
HanPanna
統計やビックデータは社会を映す鏡といわらていて、ダメなところ、醜いところも全て反映される。そこから基準を判断するなら差別がより強固になるのは当たり前の話。
2019/05/19 07:54
umasioaji
公正は時に寛容という名のバイアスで保たれる。完全な公正を追求すると息苦しい世の中になる。曖昧さを許容するAIが必要であり、それはAIの存在意義を揺るがす。
2019/05/19 08:09
takayoz
公平ではないから。
2019/05/19 08:39
matakeno
「人々が関与できるメカニズムの重要性」。
2019/05/19 09:04
otihateten3510
保険の問題ね。個人の属性をどう与えるかって話かな。しかし平等さを求めるなら、区分を手放すことと同義で逆方向に不公平とも思える。
2019/05/19 09:06
laislanopira
"過去のデータと、いまこの瞬間に「公正」とされることに頼るだけでは、歴史的な不公正を固定化してしまうだろう。"
2019/05/19 09:21
auient
「本当の問題は、そもそも保険のように重要かつ基本的な社会システムを構築する上で、数学的に割り出した公正さ、つまり市場主導型の価格的な公平性を取り入れることが妥当なのか」
2019/05/19 09:27
nekochiyo
負の再ループが発生しなければ、リスク細分化とかは問題ないということ?読解力低くてよく分からなかった
2019/05/19 09:50
bokmal
“テクノロジーやコンピューターサイエンスの世界にも、倫理判断や価値基準といったものは排除した純粋に数学的な手法で「公正さ」を定義しようとする傾向”“高度に専門的であると同時に、循環論法に陥りがち”
2019/05/19 10:41
Ingunial
正確にリスクが予測できるようになると私企業が保険やるのは無理になるのかな。面白かった。
2019/05/19 11:18
aimerci13
“問題は、公正という概念は、単体で完結するシンプルな数学的定義に落とし込むことはできないという点だ。公正さは社会的かつ動的なのであり、統計的なものではない。”
2019/05/19 11:24
envygreedlust
公正を形成するのは人間の・人類の英知でしょ それがリベラリズム だから大学入試の人種別割り当ては正義だしより高い人類の英知なのです アジア系が不利になる? 今は「人類」の話をしてるのであってね...
2019/05/19 11:43
sai0ias
“公正さは社会的かつ動的なのであり、統計的なものではない。”この手の話の行き着く先がシュビラシステムみたいなもんなんだろうなぁと思ったりする。
2019/05/19 11:53
TownBeginner
この手のアルゴリズムって、現在の傾向・状態を加速度的に進めるんじゃ無いかって心配している。例だと、黒人がますます偏見の目で見られる、とか。
2019/05/19 12:07
UhoNiceGuy
「公正」という言葉に人為的意図が含まれないという意味と、筆者の考える在るべき社会という意味が混在している。女性が長生きなのは事実で、そういう身も蓋もない事実が有ることを認めることから議論は始まるのでは
2019/05/19 12:21
reijikan
どういうデータやアルゴリズムを採用するかが、すでに主観的なのですよね。
2019/05/19 12:24
by-king
そもそもの話、公正さとはなんだ。明らかに属性によって差がある事の負担を全員が同じだけ背負うことを「平等」「公正」と表現していいのか?
2019/05/19 12:44
TequilaBancho
教師あり学習のアルゴリズムなど過去の傾向でしかないのだが、今のAIブームは危うい。
2019/05/19 12:50
spritchang
ギャンブル資本主義 金融(保険 株取引)は間違いなく過去の不公正を固定化する方向にしか働いていない 統計やAIを利用しリスク回避のためにそれが数学的動機をつけられて拡大していくだけ
2019/05/19 13:12
hiroyuki1983
アルゴリズムに「ポリコレ係数」みたいなのを入れて適宜調整すればいいよ
2019/05/19 13:24
njamota
平均寿命に基づく年金保険料の性別による重み付けは公正なの不公正なの?技術的な公正がバイアスや原因への還元などで不正確だという話と、公正さと正確さは違う(安全安心の話みたい)という話と、分けるべきでは?
2019/05/19 13:43
h5dhn9k
重要な指摘だと思う。ただ、個人的には、[だとするなら、その領域のアルゴリズムやシステムは国保や共済のように【国家】が作るべきなのでは?]と考えるのだが……。
2019/05/19 14:17
kerokeropippi
統計データの意味を判断するのは人間であり、その際に持ち込まれる価値観や尺度はプログラムの知る事ではない。「犯罪多発地域に立ち入らないようにしよう」は居住者を無視した価値観である。ではどう考えるべきか?
2019/05/19 14:21
mjq
企業の論理と公共の論理は衝突することもある。女性の合格者だけへらしていたバカ田大学とか‥‥
2019/05/19 14:32
myogab
そりゃそうだ。社会制度が「障害者」を生み出すのもある意味同じ。だから楽観的なAI礼讃は危険で。
2019/05/19 14:39
snare_micchan
保険会社が国の認可の元、データに基づいてやっている年齢・職業・病歴差別がそれ以外の世界にも広がるという記事
2019/05/19 14:59
bayeshun
人間が作った公正さとどっちが差別を助長する危険性が高いか比較してほしい。
2019/05/19 15:43
gryphon
数年前に出た大屋雄裕「自由か、さもなくば幸福か?」が、だいたいの論点を先取りしています
2019/05/19 16:20
egamiday2009
“本当の問題は、そもそも保険のように重要かつ基本的な社会システムを構築する上で、数学的に割り出した公正さ、つまり市場主導型の価格的な公平性を取り入れることが妥当なのかという点”
2019/05/19 16:30
kamezo
〈マサチューセッツ工科大学(MIT)のメディアラボ所長・伊藤穰一による『WIRED』US版への寄稿〉読もうか読むまいか迷ってしまう(偏見)。
2019/05/19 16:44
NOV1975
ここで言うアルゴリズムが「100m競争で早い順に利益を与える」ようなものであれば条件の設定に誤りがある。そもそも「条件問わず最適」なら「世界の人口を半分にする」みたいな解避けられんだろ
2019/05/19 16:51
lcwin
人工知能と統計的差別/この手の話で信用スコア周りでガンガンやってそうな中国の事例も踏まえたいところ。
2019/05/19 16:53
beauty_lake
アメリカは統計に縛られて大変そうですね。わたしは統計データを捨てた国に住んでいるので安心して暮らせています
2019/05/19 17:09
gremor
傾向と対策から産まれるのが差別ならそれはもう必要悪というか、悪でもなんでもなく人や社会が負えるリスク上限をコントロールするために不可避な構造上の必然だと思うよ。それを差別ということ自体無理矢理感ある
2019/05/19 17:21
aoi-sora
工学部出身者によく見られるエンジニア的社会改良構想の歪みがよく腑分けされている。
2019/05/19 17:35
filinion
論旨はわかるが「貧困層に犯罪が多いように見えるのは、貧困地区に警察が多いから」って本当かなあ…。むしろ貧困問題の深刻さを過小評価してしまいそうな…。/差別的AIを検出するAI、とか作れないものか。GAN的な。
2019/05/19 18:14
attosci
「過去のデータと、いまこの瞬間に「公正」とされることに頼るだけでは、歴史的な不公正を固定化してしまうだろう。既存のアルゴリズムとそれに基づいたシステムは、理想の未来ではなく過去の規範に従っている。」
2019/05/19 18:57
aobyoutann
求められるのは「公正さ」の数値化。基準は例えばクレーム件数の多寡?Twitterの通報システムみたいに。
2019/05/19 18:59
hiby
人を憎んでデータを憎まず
2019/05/19 19:26
guldeen
『データを採る場所』の選定の段階で偏りがあれば、そりゃ得られるデータも偏るわな。
2019/05/19 19:30
kjin
“過去のデータと、いまこの瞬間に「公正」とされることに頼るだけでは、歴史的な不公正を固定化してしまうだろう。”
2019/05/19 21:08
LordLuckRock
「この統計は間違っていて『真実のデータ』があるはずだ!」って言う真実のデータvs
2019/05/19 22:15
BT_BOMBER
この手の話だとAIに人事採用をやらせて公平にしようとしたら、肝心のAIがナチュラルに女性差別始めたって話出てなかったっけ。ちなみに学習させた自社のデータが男性に偏っていたことが原因だったとか
2019/05/20 07:49
KimuraShinichi
『既存のアルゴリズムとそれに基づいたシステムは、理想の未来ではなく過去の規範に従っている。これでは社会の進歩にはつながらず、むしろそれにブレーキをかけることになるはずだ。』どんなアクセルがいいのかな。
2019/05/20 11:20
paravola
(だからってハーバードの入試みたいに伊藤穰一がそれを勝手に差別=補正しちゃダメだろう)保険数理学的な「公正」の発展/人々が関与できるメカニズムの重要性
2019/05/20 17:20
t-wada
“テクノロジーやコンピュータサイエンスの世界にも、倫理判断や価値基準といったものは排除した純粋に数学的な手法で公正さを定義しようとする傾向がある。これは高度に専門的であると同時に循環論法に陥りがちだ”
2019/05/20 17:31
trashtoy
人事評価をディープラーニングで自動化しようとしたら, 男女間であからさまな格差が生じてしまったので結局自動化をやめたというニュースも記憶に新しい
2019/05/21 07:44
taruhachi
突き詰めて考えていくと実は運転年数や事故歴から保険料を算出するリスク細分型保険もこれにあたるんだよな。。。混ぜられたくもないし、難しい。
2019/05/21 13:17
p_shirokuma
「既存のアルゴリズムとそれに基づいたシステムは、理想の未来ではなく過去の規範に従っている。」
2019/05/21 14:08
senbuu
だから犯罪率を問題にしてはならないという話。問題にするという行為自体が問題を悪化させてしまうので。どうしても犯罪を非難したければ、特定の地域や属性ではなく、罪を犯したまさに本人を対象にしよう。
2019/05/21 15:49
rgfx
AI無罪、統計的差別への社会的責任。「"RedLiningは保険リスクという純粋にテクニカルな問題であって、倫理的なこととは何も関係がない" この議論は、一部のSNS企業の言い分と非常によく似ている。」
2019/05/22 13:39
ume-y
個人のリスクをその本人が担保しないといけないならば、保険の意味がないのでは。