2023/03/16 15:40
KAI-YOU
AIに人を裁けるか。「ChatGPT」が裁判官の模擬裁判、東京大学の五月祭で公開実演。最新版の「GPT-4」を使用。5月13日に東京大学本郷キャンパスの安田講堂で行われます。
2023/03/16 21:11
IthacaChasma
当然裁けると思う。被告人や証人の見た目や喋り方、司法と政治の関係、社会的影響への想像などで判断が揺らがない分、人間の裁判官より公平に裁くまである。
2023/03/16 21:13
ton-boo
興味はあるけど日本語で司法試験合格するようになってから改めて見てみたい www.itmedia.co.jp
2023/03/16 21:17
Zephyrs
ジェイムスン型の義体に入れて並べてほしい。
2023/03/16 21:40
go_kuma
むしろ人間より的確な判決が出せるはず。
2023/03/16 21:49
hinonono
人間特有の弱点はないが、囲碁でやられたようにAI特有の弱点があって、そこを突かれると人間には納得いきにくい内容になるのでは。そもAIは偏りやすい。普段はAI、異論あれば人間+AIなど組み合わせての運用が強いか?
2023/03/16 21:59
chikisio
めっちゃ面白そう。確率的にこの判決が高そうだらという意味では出来るだろうな。まあ、その判決であるべきかは最後人間が決めるだけだろう。
2023/03/16 22:01
ono_matope
ヒラメに出来ることが大規模言語モデル様にできないわけがないな。
2023/03/16 22:34
dollarss
攻殻機動隊で見たやつだ…AI陪審員がズラリと並んでたのを思い出す。
2023/03/16 22:43
soybeancucumber
日本の政治家を全員捌いてほしいわ。無罪の人間だけ政治家を続けてほしい。
2023/03/16 22:58
higamma
これは楽しみだ
2023/03/16 23:19
mozukuyummy
AIの判断は食わせるデータ次第だけど、裁判官もまた過去の判例というデータをもとに判断しているわけで。
2023/03/16 23:20
rokasouti
文脈の落とし込みや判例法的な解釈問題なんかは、どの程度できるんだろ
2023/03/16 23:26
BlueSkyDetector
今のGPT-4の仕組みだと世間の持ってる偏見も学習してるので、むしろ「被告人や証人の見た目や喋り方、司法と政治の関係、社会的影響への想像などで判断が揺ら」ぐ可能性を認識して危惧すべきかと。
2023/03/16 23:29
nlogn
「AIに人を裁けるか」日本語おかしくね?
2023/03/16 23:44
napsucks
弁護士もAIで、なんなら犯罪者も犯罪の計画段階でAIにリスクを調査してもらうようになるかも
2023/03/16 23:48
la25
法律論的な正しさより、いかにAIをハックするかの技術論のほうが発達しそう(現今の実態も変わらないのか)
2023/03/16 23:49
makou
大岡裁きの概念の備わったAIに会いたい。
2023/03/16 23:51
Eiichiro
証拠の妥当性を判断が確立で捌けるのか気になる。なんせ有罪率98%の国ですし。
2023/03/17 00:04
xorzx
日本の法律用語は特殊過ぎてアメリカ製のAIじゃ無理でしょ?/日本の裁判記録学習させれば良いと思うけどそんな手間掛かって無さそう。
2023/03/17 00:08
udukishin
裁判なんて「真実がどうか」とか「法律的にどうか」なんて実は関係なくて「みんなが納得するかどうか」だけが大事なんだよ。だからこの模擬結果自体にはあんまり意味がないと思ってる
2023/03/17 00:15
tadasukeneko
星新一でこんな話があった。裁判マシンを発明した男が冤罪で有罪にされる
2023/03/17 00:17
dogusare
法のバグ?行間?解釈で運用されていたものをドライにぶった斬りになる気が。やはりシュビラシステムみたくはみ出しモノの脳みそをGPTに喰わせてMAGIみたいに三つ並べて丸バツゲームをさせてHAL9000にKITTを捻じ込み暴走
2023/03/17 00:21
seachel
人間が条件を入力する以上はやっぱりAIでも偏りは出てきそうな感じがする。
2023/03/17 00:22
tpxyid45i
やがて人類がファイナルジャッジメントされることになりそう
2023/03/17 00:27
eggheadoscar
凡例通りであれば裁けそう。凡例を覆すに足る状況が揃ったときに、その決断ができるのかどうかは興味ある
2023/03/17 00:31
sippo_des
興味深いテーマだ。 アメリカの法律だとどう変わるのか、小室なんとかにカシコミカシコミ聞いてみたい。金次第かな。司法取引で重みつけるのかな。ニマニマ。日本とどう違うんだろ
2023/03/17 00:42
mohno
自動運転もそうだけど、結果に対して誰が責任を負うの?という話があって、たとえ「人間と同じことができる」ようになったとしても、だからって「やらせていい」かは別だと思う。あと、弁護士はハッキングするよね。
2023/03/17 01:07
wkpn
AIには有罪か無罪か言う事は可能だと思うがAIは責任を取る事ができないので結局最終的にはAIが出したジャッジにイエスかノーかを言う人間が必要になる気がする。
2023/03/17 01:15
vanillayeti
過去の判例を学んでしまうから人間より公平なんてことはないだろうしもっと差別的になるまである。てかこのイベントひろゆきとか成田みたいな匂いがプンプンするな
2023/03/17 01:25
misochige
AIでも裁けることが分かったら今度は「人間に裁かせて大丈夫なのか」が問われるようになるな。個人的な心情や思想の偏り、数々のしがらみに体調による判断力のブレと人間には弱点が多すぎる
2023/03/17 01:28
kuzudokuzu
プログラム多少触れば分かるが、機械とコミュニケーションとって何か作ろうとするとき大抵「何を入れるか(インプット/引数)」と「何を出してほしいか(アウトプット/戻り値)」を設定するのは結局「人間」だよ。
2023/03/17 01:34
maketexlsr
文系の学生ならこの程度の認識でもしょうがないか。てかこの程度の認識のままAIが世に広がっていってるってまじ怖いな。科学が魔術に見える閾値は思うよりずーーーっと低いのだろう
2023/03/17 01:40
zakusun
人間もハロー効果とか色々心理的に偏りやすい。AIが完璧と思わないが人間が遥かにマシだとも最早思えない。AIは物知りバカとか間違えるとか言うけど大抵の人間も同じ。このAIは流石に従来の高速計算機とは違うでしょ。
2023/03/17 02:01
ano18
有罪率99パーの検察側には導入するメリットがないから反対しそう
2023/03/17 02:21
juejue
法律というルールがある以上、黒か白かを判断するのは機械の得意分野だろう。
2023/03/17 02:36
yamada_k
「人を裁けるか」というと権限があれば裁けるが、法律に則った判断ができるか、というと、判例があるようなものなら人間と同程度の判断をしてもおかしくはない。裁判官で判断が分かれるようなものは不明。
2023/03/17 02:38
sotonohitokun
逮捕=実名報道+家族含社会的私刑は放置≒推定無罪の原則すら守られて無い国で何言ってるんだか(笑)/9条にOK出すモデルや、同性婚等、現法律のみで判断等、世の状況に合わせない判断を出せないモデルでは不満爆発だよ?
2023/03/17 03:13
jabberokkie
コロンビアで判決文作ってるしな。www.jiji.com
2023/03/17 03:58
nakag0711
途中で返事がなくなったりして…
2023/03/17 04:04
asazukekun
過去に判例があるものは裁ける。新しい事柄は捌けない。GPTは思考しているわけではないので。
2023/03/17 04:30
natu3kan
設定や定義に失敗して暴走してもネタになるもんな。
2023/03/17 05:01
lekto
GPT4 とういうことは当然 OpenAI のサービス使うんだろうけど、模擬裁判とは言え、こういう用途に使うことは、サービス利用規約的に認められてるんだろうか。法大生だからリーガルチェックは出きてるんだと思うけど。
2023/03/17 05:53
circled
裁判官や弁護士より話はしっかり聞いてくれそうだし、一般の人にも理解しやすい論理で判断するだろうしで、むしろ判決を受ける側も納得しやすいのでは?
2023/03/17 06:18
yarukinasu
精度が高いなら冤罪が減っていいこととすら思ってしまう
2023/03/17 06:30
Caerleon0327
ある弁護士が『AIが裁判官にとってかわるか?』と聞かれ『今でもAIみたいに杓子定規な判決しか出ませんけどね』って皮肉ってた
2023/03/17 06:45
Cru
えー。行ってみようかな
2023/03/17 06:48
TERRAZI
シビュラシステム(公式仕様)キタコレ。
2023/03/17 06:49
geonoize
こういう時期にできるのさすがだなー。
2023/03/17 06:54
damehobbyanimelike-913
フラワーデモに影響を与えたいくつかの判決は、「人間味」がなかった。果たしてAIに「人間味」が出せるのか
2023/03/17 07:01
Arturo_Ui
被告・原告の外見的特徴に左右されることは減るだろうし、論点や疑問の見落としは人間に比べて少ないはず、という点は陪審員制度より公平さが期待できるのでは。
2023/03/17 07:30
minboo
司法もいいけど、立法や行政でもこういうイベントやってほしいね。それこそこの前のガーシーの懲罰委員会とか。
2023/03/17 07:31
asamaru
素晴らしい企画
2023/03/17 07:32
mkotatsu
これまでの判例に加えて批判や最新の解釈まで、生身の人間じゃ完璧に覚えきれない量でも学ばせてるだろうから、地裁ガチャよりAIのほうがすでにハズレが少なそうだな
2023/03/17 07:38
casm
要件事実はエキスパートシステムなので確率ベースのAIとは相性悪そうではある。他方、プログラムに食わせられない理由だった証拠形式(書式)の自由さは、先の画像認識の大進歩で路が開いた感はある。
2023/03/17 07:39
UATTQJH
犯罪者の親族等、当事者でない人もまとめて過剰に攻撃して吊し上げちゃうようなインターネットの正義感溢れる陪審員共よりだったらAIの方が確実にマシだと思う
2023/03/17 07:42
takuver4
当日に急にサービスが利用できなくならないことを祈る。
2023/03/17 07:44
marilyn-yasu
複数のAIソフトの判決を人間が統合させるのが良いんだろうな。それにはGPTのバリエーションだけでなくGPT以外のAIの完全を待つことになるだろう。
2023/03/17 07:44
aliliput
へぇーオンライン実況してくれ
2023/03/17 07:49
runeharst
人間の裁判官より公平に裁けるんじゃないか?いや処理に従って捌く、になるか
2023/03/17 07:51
ktaz
判例に照らし合わせて最尤な文章が出てくるのだろう。数多の判例のうち都合が良い判例に近づけるような質疑の技術が問われそう。
2023/03/17 08:00
kootaro
個人的にはシュビラシステムで良いと思う。特異的な問題は出るんだろうけど、だいたいは上手くいく。 人がやっても結果のバラつきなんて出来るんだし、完全なんて出来ないと思うので、俺はね。
2023/03/17 08:02
kawabata100
AIのが陪審員の1人になるなら可。人間もいないと偏る。
2023/03/17 08:11
fjwr38
へーおもしろ
2023/03/17 08:12
vanish_l2
九條先生が無双しそう
2023/03/17 08:18
ogawat1968
「裁けるか」と問われたら裁けない、あるいはそれを人間は受け入れられない。「妥当な結論を導けるか?」であれば可能であろう。
2023/03/17 08:20
dpdp
興味深い…裁かれる側はどう感じるのだろう
2023/03/17 08:25
tokitori
AIが人を裁くなんてとんでもない。人は協力して意思決定プロセスを責任感持って、多人数で、視野を広げてやってるんだ。AI風情が、人間を舐めるなよ(憤怒)
2023/03/17 08:25
frizzante
判例通りの判決が出るが、世の流れを変える画期的な判決なんてものは出ない。
2023/03/17 08:38
locust0138
田舎の地裁ではクソみたいな判決を出す裁判官がいるらしいので、AIのほうがマシだろう。
2023/03/17 08:44
naoto_moroboshi
過去の判例通りにやりそうな。
2023/03/17 08:46
something_cool
AIは責任を取らないとのコメントがあるけど、生身の裁判官様も責任は取らないのでは…
2023/03/17 08:46
ShimoritaKazuyo
ChatGPTって空気読むのが上手いので、合理的判断より世間のなんとなくに流されそうなんだよなぁ。
2023/03/17 08:46
shinme_chan
「無罪です。」「その判決はおかしいのではないですか?」「申し訳ございません、ご指摘の通りです。死刑です。」
2023/03/17 09:01
Shalie
模擬裁判だからね。こういうのは公開でやってみてどういう問題が出てきそうか見るのがいいと思う。ちょっと前に南米で判事が判決文を書くのに ChatGPT を使ったっていうニュースがあったな。
2023/03/17 09:02
guldeen
日本で近年目につく『介護疲れ心中未遂』とかでは執行猶予を付ける(=被告の年齢を考慮すれば事実上の放免)判決が一般的で、一方で『煽り運転で停車させ、そこに追突』などの例をAIが的確に裁けるとは思えん…
2023/03/17 09:07
sds-page
裁判官が判決の責任取るってことある?弾劾制度は関係者に利便を図って判決を歪めた時とかだよね?AIの判決を不服として控訴する仕組みがあればいいのでは
2023/03/17 09:09
touhousintyaku
タイトルのワクワク感がすごい / 3.5に日本語で質問したときは日本の法律の細かい部分とか判例の知識について知らないか回答を避けてる感じだった気がするけど果たして
2023/03/17 09:09
segment12
最終的にはAIが決めて人が責任を取る死刑執行時のボタン押す人みたいになるのかね
2023/03/17 09:11
halfneet
AI裁判官、こないだ読んだ小説に出てきたな。www.amazon.co.jp まぁ地裁だとトンチンカンな判決出すやつ多いし、AIのほうがマシかもしれんね。
2023/03/17 09:21
Helfard
口八丁で丸め込まれそう。
2023/03/17 09:39
electrolite
法が公平なんて幻想がそもそも間違い。大陸法と英米法で全く違うし、恣意的なのを公正だと見せるのか法曹の役割なので、AIはせいぜいパラリーガル止まり。
2023/03/17 09:46
dai0809
様々な条件が入り組んでいる事件とか、AIに質問をする時点の人間が情報を足りなくしたり、不利な判決を誘導することもできそう/むしろ政治にAI導入して欲しい!
2023/03/17 09:50
nemuiumen
地裁の怪しげな判断をたくさん学習しちゃったりして。
2023/03/17 09:54
seiji_harada
時代が進むと「AI裁判に強い弁護士」みたいなのも出てきそう。
2023/03/17 09:56
Vudda
そもそも人間の裁き自体に疑問があるのでAIもありだろ
2023/03/17 10:01
pero_pero
チューニングしていけば人間より公平に裁けるとは思うけど、問題はそれが公平かどうかを誰が判断できるのかみたいなところじゃないかな
2023/03/17 10:04
Mysz
AIは誤審に責任をとらないが、人間の判事・検事・刑事も誤審・誤捜査に個人として責任をとらないので、条件は対等である。
2023/03/17 10:12
in2
食わせるデータセットによって出力結果が偏るわけだから、AIにデータを食わせる仕事をする人に責任がのしかかると思うんだけど。すぐにバグりそうだな。
2023/03/17 10:15
Byucky
フィルターが掛かってるから危なっかしさはかなり薄れてるが、そういうのがなければ「論理的には犯罪者側の方が正しい」とか「無期懲役には意味が無い」とか言い出しかねないが、俺はむしろそれをみてみたい側
2023/03/17 10:15
beed
やれるかやっていいかどうかはまた別問題ではあるけど、責任の所在みたいな話だと、人間の裁判官だったら誤審に対してなんの責任取れるの?とは思う。その人の責任だってだけで別に被害回復しないし。
2023/03/17 10:19
daij1n
悪意ある脱法スレスレのアウトは、アウトにできなさそうな感じはする。ただ、人と違ってアップデートできるからな。
2023/03/17 10:24
ysync
判例引っ張って来るだけのお仕事なら人間以上に出来るんじゃないかな。地裁のトンデモ判決は減りそうなので、もう今からでも変えちゃえば?w
2023/03/17 10:42
ardarim
ChatGPTだと割と相手に迎合する傾向があるので「調教」次第で意見が変わりそうで不安はある。この世に絶対正義なんてものは無いんだし。どうやっても何らかのバイアスは発生する。
2023/03/17 10:47
kurage_lizard
どうやるんだろう?質問の仕方が気になる。ChatGPTって断定できないとどちらとも言えないって回答が多い印象がある
2023/03/17 10:52
Silfith
裁判官も個人の保身、検察との関係、前例踏襲、裁判官個人の視点による社会的常識の提示といった問題が多い割にそれを評価する仕組みがないからどんどん開拓したらよい
2023/03/17 11:00
bigburn
『逆転裁判』のサイバンチョが失業してしまう…
2023/03/17 11:06
n2sz
日本の法律は学習に入ってるのかな。裁判できるレベルだったら法律に関する質問もできるだろうか。
2023/03/17 11:10
Dursan
まずは提出書類を書かせるところからだろうて
2023/03/17 11:13
takeishi
怖いねえ/実際GPT-10とかになる頃には今より欠点も減ってるだろうし
2023/03/17 11:29
Dai44
判例主義と、公開されたドキュメントから最適解を出すのは相性は良さそう。実際に裁かせる目的よりも、判決までの期間短縮とかに使えたらいいのかも
2023/03/17 11:35
timetrain
大きく変わりそう。人間には関与し続けてほしいので、裁判官、陪審員、過去を参照するAIの三者で地裁判決を出すとか、あるいは簡裁一審で情状酌量の入らない要素は機械的になっていくのかもしれん
2023/03/17 11:37
khatsalano
「裁けるか」が「判決を下せるか」という意味なら,裁けるだろう。ただしAIによる判決を人間の側が受け入れられるのかというのはその先の問題。実験による判決次第では人間社会にとって大きなアポリアになり得る。
2023/03/17 11:47
sechs
ライフログと将来的なAIがあるとここにエントリーシート出しておいてよ。とか出来そう。それか企業と自分のAI同士が勝手に面接してて、あなたならすぐここに入れますと出来てしまうかも。
2023/03/17 11:51
NikugaTabetainoyo
ほー
2023/03/17 11:53
doko
犯罪の成否の認定にせよ量刑にせよ、事実の認定をどうやるかってだけの話のような。複数の事実をインプットして、どの事実に重きをおいて認定するのかしないのかって感じかしら。
2023/03/17 12:07
chuujou
これって、交差検証して「実際の判決と同じ判決が出せたら高精度」と言っていいんだろうか?アメリカだと陪審員制なので、Cohen’s Kappa などを使ってラベルそのものの揺らぎも統計化できるかも
2023/03/17 12:14
nori__3
判例主義から抜けられないのでは
2023/03/17 12:22
yoiIT
検察と弁護士の裁判官AIハック技術の競い合いになりそう。
2023/03/17 12:40
mionosuke
面白そうだけど、前例を踏襲すると予想。
2023/03/17 12:50
toshiyam
Q.E.D. iff 11巻に意図的な表記揺れで犯行現場を捏造し互いに別の現場の話をしたまま冤罪を成立させようとする話が出てくるけど、今のAI見てると普通に解決しちゃいそうだな、、、
2023/03/17 12:51
ichilhu
試しに自衛隊が違憲か合憲か判断させてみたい
2023/03/17 12:52
morimori_68
そんな暇があったら時計台放送を再開しろよ
2023/03/17 12:59
retire2k
判決そのものよりも、判決理由がどういうものになるか。過去の判決理由とよく似た文章になるのかな。
2023/03/17 13:02
estragon
条文と判例に照らして適正な量刑と判決文が書けそうだけど、事実認定起案の書き方次第でどのようにでもできそうな。逆に言えば事実認定まで固まればあとはAIに任せても良いケースが多そう
2023/03/17 13:03
cj3029412
AI(愛)に人を裁けるかとは一体・・・
2023/03/17 13:07
kuippa
憲法にかかれている「迅速な公開裁判を受ける権利」が機能していない。人間がボトルネックでできていないことは、機械化したほうがいい。少額訴訟とか、予備裁判とか。
2023/03/17 13:16
manatus
裁判所と弁護士会と検察がAI持ち寄って多数決するMAGI型にしよう
2023/03/17 13:20
taruhachi
どれだけ判例を知っているかという知識に照らし合わせるのが裁判なので、素人参加型の裁判員制度よりずっと筋がよく裁けるとは思うが、裁かれる方が納得できるかは別問題だろうね。
2023/03/17 14:11
minamishinji
面白そう
2023/03/17 14:18
i_ko10mi
判決は出せなくても判決への根拠となる要素を整頓するのは向いてそう。過去の判例や持ち込まれた証拠集めて管理するとか。
2023/03/17 14:54
shinobue679fbea
さすが東大。今頃京大はどんなしょうもないけど知的さを失わない使い方があるか頭捻ってるはず
2023/03/17 15:50
mtoy
AIも人間も、良い面・悪い面がある。その匙加減が上手くできれば実用に耐えられると思うが、利権の問題で実戦投入は20年ぐらいかかりそう。
2023/03/17 16:18
masuda--tarou
ただ信ぴょう性判定ができないじゃん 証言や証拠が100%正しいならともかく
2023/03/17 16:47
tonza_dopeness
シビュラシステム
2023/03/17 16:48
table
5月13日だと周回遅れになってそう
2023/03/17 16:56
letitbomb78
思考回路が一般市民レベルのシビュラシステムみたいな感じだろうか。
2023/03/17 17:15
daydollarbotch
「人を裁ける」とは何かをまず定義しないと。定義によっては、現状、職業裁判官や裁判員(裁判の裁判体)が「人を裁け」ているとはいえないかもしれない。
2023/03/17 17:27
anmin7
ChatGPT「まず正中線に沿って腹部を切開する(ギュッ)」
2023/03/17 18:13
ntstn
プレ裁判的なのには使えそう。
2023/03/17 18:27
aquatofana
法律というのは社会を機能させるプログラムだから、AIにも法曹の「機能」は真似られるだろう。しかし、反例に学べばその裏にある偏見や差別(レイプを認めつつ無罪とか、外国籍には重量刑とか)を鮮烈に再生産するだろ
2023/03/17 19:06
trkbt10
証言にプロンプトインジェクションしこみたい
2023/03/17 19:45
VNFn2uS7hy
まぁ最初のうちはあくまで参考意見役として取り入れて、時間をかけてAIに移行するでしょうね。結局慣れの問題なので、100年時間使えば抵抗感ない人だけになってる。
2023/03/17 19:50
agektmr
AIに世の中を支配させた方が公平になるって考える人たちは間違いなく出てくる
2023/03/18 09:36
minamihiroharu
現実的には、法曹にとってのAI技術が「医療者にとってのCTやMRIの様なツール」になり得るかって話なんだろうと思う。
2023/03/18 21:45
Kukri
今よりましになるなら使えばいい。そもそも100か0なんて現実にはないのだから、トータルでお得なら問題ないだろ