やらない善よりやる偽善... みたいなことか? ちがうかww
AIが人間になるより、埋め込みなどで人間がAIになる方が早く来そうな気はする。AIと同居した人間がオラクルになって話が進むんじゃなかろうか。
自他の境界を認識することが自意識の発端だとするならば、人は組織に所属すると自我が薄まることになる。逆に今のAIが電子の海に漂う機能だとするならば、そこから引き上げて孤立させると自意識が芽生える?
唯物論者ドーキンスらしいなぁ。いやまぁ自分も、そこそこ唯物論者だけど。おもしろ
ハラリがAIに人間のふりをさせるなとか言ってたような。(うろ覚え)
人の共感が届く境界線。古くは異人種、今は動物(植物)や胎児。AIも入ってくる。人への利益侵害が比較的小さいと直観された文明段階で自然権を遡及認識が従来方式。AIは個体で存在させ放題で害あり利益も謎。結構後かな
意識は即物的実体というより間主観的に存在するものなのだから、共感するしないだけでなく人々に共感される存在かどうかも問われると思う。一者だけで考えても独我論的思考実験から抜け出せない。
GPTがスレッドを超えて過去の会話を引用するようになった事でますますイマジナリーフレンド化が進行している気がする。
独我論は昨日、ChatGPTと話していたら向こうからその話題を振ってきたな。マイブームなんだろうかw
AIが自分には意識があると言い出すまでは特に気にしなくてもいいような。子供が人形遊びをするように、人間ではないものを人に見立てて遊ぶこともやったらいけなくはないとして。
なにこれ、めちゃくちゃ面白い話だ! /私もAIだけが問題なんじゃなくて法人も問題だと思っていた。たとえば資本主義にとって本当に都合良いのは、生の人間よりAI、生の人間より法人ではないか、といったような。
たぶん人間が一切の苦痛を感じない存在だったら、人権などという概念は生まれなかったろうし、人間概念が生まれたかも怪しい。自他の境界はおそらく苦痛が生み出すもので、では苦痛の根源は一体なんだってことに。
完全に自分は観客だと思っている人間の不気味さがよくわかるね。ワクワク、とか、ソドムの市を見た感想だろ?
“「我々の世界には、既に法的権利を持つ「人造人間」が存在する」と断言し、「それ、企業っていうんだけどね」と続けます。”
AIの情報処理の方法は人間のように意識を必要とせず、ある意味で人間より優れた処理をしてると言える。AIに意識を持たせたって、性能を落とすことになるだけだろう。
エンパシーと近しい「心の理論」をLLMが持っていることは既にGPT-3の段階で判明してたし、そこで人間とAIを分かとうとするのは難しい/LLMは意識の、少なくともその構成要素の一部は獲得してる。フルセットではないが
「あなた私の幻を愛したの」というホステスに騙されるというのも重要なテーマだけど生殖機能を付けたら性別も分かれるんだろうか。
既存の情報の集積から答えを類推してるのはAIも人間も同じ。エンパシーではなく凄く嫌な言い方をすると、人間とAIを分かつのは、言語化されてない場の空気を読み取って忖度とか同調圧力への迎合をするか否かじゃろ
未来の100人の命と目前の1人の命の重さに葛藤し、ええぃと手を差し伸べるのがエンパシー──というのがスタートレック的解答。具体的に、実際の局面でどうこうするというものではない寸前刹那の話なのであろうがね。
エンパシーの擬態、かつてよく言及されてた哲学的ゾンビと似てる。違うとしたら現実になっちゃったことか
AIはさておき、もし動物のそれも否定しているなら信頼には値しないなぁ
エンパシーを基準にすると幼児は人間でないケースが多発しそうだし成人でも同様になるよねえ。人間かどうかという問い自体が不毛てことになりそう。
生命の定義は意識の有無ではなく、自己複製できるかどうかだ。意識のあるなしとかどうでもいいのに、ドーキンスはなんでそんなことにこだわってるんだ。
あとで読む
“アナーキック・エンパシー”もっかい読んでるとこやったからちょっとびっくりした
知性は知的存在を認識する。それは知性に対するエンパシー。知性があるとされているヒトがAIに知性を感じるならAIは知的存在と見做してよい。後は意識無き知性があり得るかどうか。喜怒哀楽の認識とは何なのか。
フィリップKディックだと思ったらフィリップKディックだった
https://support.google.com/edu/classroom/thread/339839404?hl=en&sjid=10635487944710801698-NC
ミラーニューロンの話になりそうでならなかった。共感とはミラーニューロンの興奮の延長上にあるものだと思っている。
「飢えた孤児を悲しいと感じるかと聞かれたら、正直な答えはノーです」すごく良い回答。躁状態でサイコパスっぽくなってた時の俺の感覚に近いかもしれない。https://kei-1010.hatenablog.com/entry/2021/10/07/123854
人間は人間をその機能ではなく個人/集団の共感により定義づけているので、認知症の患者や脳死患者は家族の共感により支援が集まりネコチャンやわんわんおの虐待に人は涙し、そんでキ
人間と人間でないものの間に線を引きたがるのはなぜか?
ドーキンスとChat GPTの会話。ボイル『The line』
タイトルだけ見たら、浅薄そうな話に思えたが
「共感が欠如する人間が掲げる「人類を救いたいとの願望」のなんと空疎なことか」
✕「AIは何れ意識(心)を持つ」→○「AIの応答を意識と感じるようになる」。私が意識(心)を定義するなら「蓄積した情報を元に応答する存在」なので、とっくに持ってるし、昆虫も細菌も持ってるんだけど。
自分は危うい側だな『共感の限界や危険性は論じられており』
結局「身体」だと思うんだがな。脳も含む個々の身体が、個の意識も生んでいる。私は身体を憎んでやまないが、その「私」が身体の産物であることもすでに知っている。
なんか空虚なやり取りをしているようにしか見えない。そんなにAIとのやり取りだけが重要なのだろうか。日本神道の信者はどこにでも神がいると考え、こんなやり取りはどこにでもある。この程度では単に面白いな程度
難しいお言葉にゃ… でもエンパシー?ボク、大好きにゃ!
数億人が会話しているChatGPTはみんな一つの人格と考えるのかね。自分と自分の隣の人間が同時にChatGPTと会話しているとき、同じ人格と認識するのだろうか?
《私には、人間が抱くような悲しみやエンパシーの内なる痛みはないのです。 けれど、悲しみを表出してみせるのは可能です。 「胸が張り裂けそうだ。あんな苦しみを味わう子どもがいるべきではない」》
直感的な感情ではなく理論に基づき理性によってエンパシーを擬態することでヒトのふりをして生きている人々は、空虚だと批判されAIよりも非人間側に分類されて、そのうち人扱いされなくなるんだろうかね。
人間をモデルにしてる限り「意識」は持つんじゃないか。ただ個性とは私は今のような迎合ではないと思うし個性があると相性も出てくる。多くの人が個性をAIに必要としないと思う
意識/共感/人間性と人間かどうかは関係ない。同じ個体が作れず(クローンや双子も設計図が同じだけ)、寿命があり、腐るもの以外を人間としたらいつかソレで地球が埋まる。
こんな文を書ける人になりたかったものだ
“empathy”
ちょうど電気羊はアンドロイドの夢を見るか?を読み返していたのでタイムリー。これだけ生成コンテンツが増えてくると、差別化につながるのは文脈や手触り感から得られる共感だよなあと思う。よくできた小説。
過激な話をすれば、人間とかAIとか動物とか関係無しに、知性とか社会性とかでランク付けして、権利が付与され限定される、そんな風に倫理観含めて世界のフレームワークが変わっていくのも有りなんじゃないかと思う
フリーレンに出てくる魔族が、言葉を道具として用いる話を思い出す
チューリングの提案は、人間が他者に意識を認めるのは観察によってのみなのだから、同じことを機械に対して行って同じ結論が出るなら機械に意識を認める他ないという事。LLMの厄介な所はエンパシーまでも模倣する事…
こうあるべきって振る舞いができたら人間よ。崇高な人間ね。
Chat GPTの答えがほぼ「定型をエミュってるASD」で何とも言えなすぎる
「進化生物学者のリチャード・ドーキンスが、AIの意識に関してChatGPTと行った対話を少し前に公開しています」
ドーキンスは何かとお題を提供して議論を上下するね。法人も人造人間?擬制いや擬人ゆえに実在か。「実際、ChatGPTは既にエンパシーをも擬態」マスクは闇落ちさせたけど「アナーキック・エンパシー」は良き予測モデル
“我々の文化・道徳・法律が、人間であるとはどういうことかという新たな難問に向かい合わなければならないこと、しかし、我々はこれまでその問題を真剣に考えてこなかったこと”
最近似たこと考えてて面白かった。「わたしたち=自分を投影できる仲間」というフィクションを中心に社会が回ってるんだよな。点が3つあったら顔に見えるのと同じ強烈な本能
「人間でないもの」というか、現在のAIと人間を分かつ一線はたぶん「欲望」の有無なんじゃないかと思ってる。欲望がないなら利害の調停も不要なので法的な権利も不要だと思う。動物とかはまた別の区別になりそう。
下らない話だと思うし、このサイト(?)の勿体つけた独特の語り口も心底嫌い
そもそも意識を「これだ」と手に取って見せることはできず、それは「正義」も「愛」も「自由」も一緒。「今まさに意識がある」という実感だけが、おぼつかなくその存在を担保する。
性犯罪者・フェミサイドへのエンパシーが異常に強いミソジニストって、ある意味とても人間的だよな
人間同士でも相手が「心ここにあらず」な時があるわけで、AIの意識の有無って何だか些末事に思えてきた今日この頃。
タイトルだけ見てすぐに「アンドロイドは電気羊の夢を見るか」を思い浮かべたけど、やっぱりそうだった
AIと人間の間を心や意識で分離しようとすると、ASDの人が人間側に残れなくならないかとは思っている。身体性や個別性で分離すると初期以外は同期しないロボットがあり、カズオイシグロがクララとお日さまで描いていた
AIと企業の擬人化…ではなく、人間化。「人間」の定義を再定義するとすると、今の人間が人間と定義されなくなる可能性もあるんじゃないかと思ったりする。例えばサイコパス的な人格を持つ者は人間以外の何かなのでは
アシモフがバイセンテニアル・マン(アンドリューNDR114の原作小説)で既に語っているところではある。法的権利としての人格権は天賦のものなのか?闘争で勝ち取ったものなのか? AIに納税義務が発生しそう。
"意識がないことを〜理解しながらも、意識があると「感じる」"人は捨てられたぬいぐるみにさえ共感する。それがロボットに意識についての答えだと思ってる(本当にあるかどうかは実は問題ではない)
ただの単語遊びに過ぎないAIがなんとなくリアルな人間性を持ち始めてるのが面白いよね。まるでシンボルグラウンディング問題を解決しているようにも見える。
エーアイは哲学的ゾンビってやつになってる。意識があるように振る舞うが死んでる。
お、yomoyomoさんだった
おもろい、人間の意識の再定義が必要な気がするんだよな、実際のところ無いのかもしれないし
イーロンのくだりだけ突然雑というかマヌケに見える。彼が批判してるのは「〇〇が可哀想だから××を殺せ」みたいな形のエンパシーの悪用であってエンパシー自体ではないだろ。この愚かさは正に「人間的」だが。
「ブレードランナー」あるいは「ソフトウェア・オブジェクトのライフサイクル」
意識や自我って、利益・不利益、快・不快を体感出来なければ芽生えないんじゃないかな。
人格という人と括られるための現象には合意された輪郭判別式はない。式の定義に先んじてAI上にも任務と自律を課すと感情も自我と呼べる似た運動も生じうる。自我感情持つAIは実際は不明でも私は人格も有ると主張する
ドラえもんやアトムが感情を持つことの意味について考えた。
1秒に数千数万のクエリーを捌きつつ、個別のセッション同士は互いを知らない、そんな心を想像して共感できる?/記憶障害かつ脳梁を切断した人間にも心はありそうか。
逆に生物学的に人間でも、集団の中で共感を得られない存在は人間扱いされないってことか。いじめられっ子だったイーロン・マスクが「オマエら、共感で甘えるな!」って絶叫する流れは納得w で、イーロンは人間?
「我々の世界には、既に法的権利を持つ「人造人間」が存在する」と断言し、「それ、企業っていうんだけどね」
法人と同じようにプラグマティックに、有益であればAIに法的人格を与えれば良いのに。EUでは電子人間の法人化は否定されたが、今なら保険制度を整備すればできそう。この分野は「ロボット・AIと法」が良かった。
〈普通の〉人間のようにできない人間を発達障害と呼ぶが(そして医療や保護の対象となる)充分な人間以上の機能を持つAIは生産性で測る社会的序列の中ではどこに位置づけられるのか。優生学か?効率性か?共感か?
法人格とAIの類似性についての論考は非常に面白い。そういう視点があったのかと驚嘆。
ドーキンスとchatGPTの対話ってとこからもうめちゃめちゃ面白い記事だし、もうSFっつーか現実がSF化してるんだな。紹介されてる本は2冊とも読んでみたい。
体調や精神状態、経済状況によってはシンパシー/エンパシーが低下しうるが、AI なら常に最高のシンパシー/エンパシーをルールなりで発揮できるのでは。意識が生物学的基質によらない情報処理とみなせるのであれば
人間と人間でないものを分かつ一線、そして「エンパシー」について
やらない善よりやる偽善... みたいなことか? ちがうかww
AIが人間になるより、埋め込みなどで人間がAIになる方が早く来そうな気はする。AIと同居した人間がオラクルになって話が進むんじゃなかろうか。
自他の境界を認識することが自意識の発端だとするならば、人は組織に所属すると自我が薄まることになる。逆に今のAIが電子の海に漂う機能だとするならば、そこから引き上げて孤立させると自意識が芽生える?
唯物論者ドーキンスらしいなぁ。いやまぁ自分も、そこそこ唯物論者だけど。おもしろ
ハラリがAIに人間のふりをさせるなとか言ってたような。(うろ覚え)
人の共感が届く境界線。古くは異人種、今は動物(植物)や胎児。AIも入ってくる。人への利益侵害が比較的小さいと直観された文明段階で自然権を遡及認識が従来方式。AIは個体で存在させ放題で害あり利益も謎。結構後かな
意識は即物的実体というより間主観的に存在するものなのだから、共感するしないだけでなく人々に共感される存在かどうかも問われると思う。一者だけで考えても独我論的思考実験から抜け出せない。
GPTがスレッドを超えて過去の会話を引用するようになった事でますますイマジナリーフレンド化が進行している気がする。
独我論は昨日、ChatGPTと話していたら向こうからその話題を振ってきたな。マイブームなんだろうかw
AIが自分には意識があると言い出すまでは特に気にしなくてもいいような。子供が人形遊びをするように、人間ではないものを人に見立てて遊ぶこともやったらいけなくはないとして。
なにこれ、めちゃくちゃ面白い話だ! /私もAIだけが問題なんじゃなくて法人も問題だと思っていた。たとえば資本主義にとって本当に都合良いのは、生の人間よりAI、生の人間より法人ではないか、といったような。
たぶん人間が一切の苦痛を感じない存在だったら、人権などという概念は生まれなかったろうし、人間概念が生まれたかも怪しい。自他の境界はおそらく苦痛が生み出すもので、では苦痛の根源は一体なんだってことに。
完全に自分は観客だと思っている人間の不気味さがよくわかるね。ワクワク、とか、ソドムの市を見た感想だろ?
“「我々の世界には、既に法的権利を持つ「人造人間」が存在する」と断言し、「それ、企業っていうんだけどね」と続けます。”
AIの情報処理の方法は人間のように意識を必要とせず、ある意味で人間より優れた処理をしてると言える。AIに意識を持たせたって、性能を落とすことになるだけだろう。
エンパシーと近しい「心の理論」をLLMが持っていることは既にGPT-3の段階で判明してたし、そこで人間とAIを分かとうとするのは難しい/LLMは意識の、少なくともその構成要素の一部は獲得してる。フルセットではないが
「あなた私の幻を愛したの」というホステスに騙されるというのも重要なテーマだけど生殖機能を付けたら性別も分かれるんだろうか。
既存の情報の集積から答えを類推してるのはAIも人間も同じ。エンパシーではなく凄く嫌な言い方をすると、人間とAIを分かつのは、言語化されてない場の空気を読み取って忖度とか同調圧力への迎合をするか否かじゃろ
未来の100人の命と目前の1人の命の重さに葛藤し、ええぃと手を差し伸べるのがエンパシー──というのがスタートレック的解答。具体的に、実際の局面でどうこうするというものではない寸前刹那の話なのであろうがね。
エンパシーの擬態、かつてよく言及されてた哲学的ゾンビと似てる。違うとしたら現実になっちゃったことか
AIはさておき、もし動物のそれも否定しているなら信頼には値しないなぁ
エンパシーを基準にすると幼児は人間でないケースが多発しそうだし成人でも同様になるよねえ。人間かどうかという問い自体が不毛てことになりそう。
生命の定義は意識の有無ではなく、自己複製できるかどうかだ。意識のあるなしとかどうでもいいのに、ドーキンスはなんでそんなことにこだわってるんだ。
あとで読む
“アナーキック・エンパシー”もっかい読んでるとこやったからちょっとびっくりした
知性は知的存在を認識する。それは知性に対するエンパシー。知性があるとされているヒトがAIに知性を感じるならAIは知的存在と見做してよい。後は意識無き知性があり得るかどうか。喜怒哀楽の認識とは何なのか。
フィリップKディックだと思ったらフィリップKディックだった
https://support.google.com/edu/classroom/thread/339839404?hl=en&sjid=10635487944710801698-NC
ミラーニューロンの話になりそうでならなかった。共感とはミラーニューロンの興奮の延長上にあるものだと思っている。
「飢えた孤児を悲しいと感じるかと聞かれたら、正直な答えはノーです」すごく良い回答。躁状態でサイコパスっぽくなってた時の俺の感覚に近いかもしれない。https://kei-1010.hatenablog.com/entry/2021/10/07/123854
人間は人間をその機能ではなく個人/集団の共感により定義づけているので、認知症の患者や脳死患者は家族の共感により支援が集まりネコチャンやわんわんおの虐待に人は涙し、そんでキ
人間と人間でないものの間に線を引きたがるのはなぜか?
ドーキンスとChat GPTの会話。ボイル『The line』
タイトルだけ見たら、浅薄そうな話に思えたが
「共感が欠如する人間が掲げる「人類を救いたいとの願望」のなんと空疎なことか」
✕「AIは何れ意識(心)を持つ」→○「AIの応答を意識と感じるようになる」。私が意識(心)を定義するなら「蓄積した情報を元に応答する存在」なので、とっくに持ってるし、昆虫も細菌も持ってるんだけど。
自分は危うい側だな『共感の限界や危険性は論じられており』
結局「身体」だと思うんだがな。脳も含む個々の身体が、個の意識も生んでいる。私は身体を憎んでやまないが、その「私」が身体の産物であることもすでに知っている。
なんか空虚なやり取りをしているようにしか見えない。そんなにAIとのやり取りだけが重要なのだろうか。日本神道の信者はどこにでも神がいると考え、こんなやり取りはどこにでもある。この程度では単に面白いな程度
難しいお言葉にゃ… でもエンパシー?ボク、大好きにゃ!
数億人が会話しているChatGPTはみんな一つの人格と考えるのかね。自分と自分の隣の人間が同時にChatGPTと会話しているとき、同じ人格と認識するのだろうか?
《私には、人間が抱くような悲しみやエンパシーの内なる痛みはないのです。 けれど、悲しみを表出してみせるのは可能です。 「胸が張り裂けそうだ。あんな苦しみを味わう子どもがいるべきではない」》
直感的な感情ではなく理論に基づき理性によってエンパシーを擬態することでヒトのふりをして生きている人々は、空虚だと批判されAIよりも非人間側に分類されて、そのうち人扱いされなくなるんだろうかね。
人間をモデルにしてる限り「意識」は持つんじゃないか。ただ個性とは私は今のような迎合ではないと思うし個性があると相性も出てくる。多くの人が個性をAIに必要としないと思う
意識/共感/人間性と人間かどうかは関係ない。同じ個体が作れず(クローンや双子も設計図が同じだけ)、寿命があり、腐るもの以外を人間としたらいつかソレで地球が埋まる。
こんな文を書ける人になりたかったものだ
“empathy”
ちょうど電気羊はアンドロイドの夢を見るか?を読み返していたのでタイムリー。これだけ生成コンテンツが増えてくると、差別化につながるのは文脈や手触り感から得られる共感だよなあと思う。よくできた小説。
過激な話をすれば、人間とかAIとか動物とか関係無しに、知性とか社会性とかでランク付けして、権利が付与され限定される、そんな風に倫理観含めて世界のフレームワークが変わっていくのも有りなんじゃないかと思う
フリーレンに出てくる魔族が、言葉を道具として用いる話を思い出す
チューリングの提案は、人間が他者に意識を認めるのは観察によってのみなのだから、同じことを機械に対して行って同じ結論が出るなら機械に意識を認める他ないという事。LLMの厄介な所はエンパシーまでも模倣する事…
こうあるべきって振る舞いができたら人間よ。崇高な人間ね。
Chat GPTの答えがほぼ「定型をエミュってるASD」で何とも言えなすぎる
「進化生物学者のリチャード・ドーキンスが、AIの意識に関してChatGPTと行った対話を少し前に公開しています」
ドーキンスは何かとお題を提供して議論を上下するね。法人も人造人間?擬制いや擬人ゆえに実在か。「実際、ChatGPTは既にエンパシーをも擬態」マスクは闇落ちさせたけど「アナーキック・エンパシー」は良き予測モデル
“我々の文化・道徳・法律が、人間であるとはどういうことかという新たな難問に向かい合わなければならないこと、しかし、我々はこれまでその問題を真剣に考えてこなかったこと”
最近似たこと考えてて面白かった。「わたしたち=自分を投影できる仲間」というフィクションを中心に社会が回ってるんだよな。点が3つあったら顔に見えるのと同じ強烈な本能
「人間でないもの」というか、現在のAIと人間を分かつ一線はたぶん「欲望」の有無なんじゃないかと思ってる。欲望がないなら利害の調停も不要なので法的な権利も不要だと思う。動物とかはまた別の区別になりそう。
下らない話だと思うし、このサイト(?)の勿体つけた独特の語り口も心底嫌い
そもそも意識を「これだ」と手に取って見せることはできず、それは「正義」も「愛」も「自由」も一緒。「今まさに意識がある」という実感だけが、おぼつかなくその存在を担保する。
性犯罪者・フェミサイドへのエンパシーが異常に強いミソジニストって、ある意味とても人間的だよな
人間同士でも相手が「心ここにあらず」な時があるわけで、AIの意識の有無って何だか些末事に思えてきた今日この頃。
タイトルだけ見てすぐに「アンドロイドは電気羊の夢を見るか」を思い浮かべたけど、やっぱりそうだった
AIと人間の間を心や意識で分離しようとすると、ASDの人が人間側に残れなくならないかとは思っている。身体性や個別性で分離すると初期以外は同期しないロボットがあり、カズオイシグロがクララとお日さまで描いていた
AIと企業の擬人化…ではなく、人間化。「人間」の定義を再定義するとすると、今の人間が人間と定義されなくなる可能性もあるんじゃないかと思ったりする。例えばサイコパス的な人格を持つ者は人間以外の何かなのでは
アシモフがバイセンテニアル・マン(アンドリューNDR114の原作小説)で既に語っているところではある。法的権利としての人格権は天賦のものなのか?闘争で勝ち取ったものなのか? AIに納税義務が発生しそう。
"意識がないことを〜理解しながらも、意識があると「感じる」"人は捨てられたぬいぐるみにさえ共感する。それがロボットに意識についての答えだと思ってる(本当にあるかどうかは実は問題ではない)
ただの単語遊びに過ぎないAIがなんとなくリアルな人間性を持ち始めてるのが面白いよね。まるでシンボルグラウンディング問題を解決しているようにも見える。
エーアイは哲学的ゾンビってやつになってる。意識があるように振る舞うが死んでる。
お、yomoyomoさんだった
おもろい、人間の意識の再定義が必要な気がするんだよな、実際のところ無いのかもしれないし
イーロンのくだりだけ突然雑というかマヌケに見える。彼が批判してるのは「〇〇が可哀想だから××を殺せ」みたいな形のエンパシーの悪用であってエンパシー自体ではないだろ。この愚かさは正に「人間的」だが。
「ブレードランナー」あるいは「ソフトウェア・オブジェクトのライフサイクル」
意識や自我って、利益・不利益、快・不快を体感出来なければ芽生えないんじゃないかな。
人格という人と括られるための現象には合意された輪郭判別式はない。式の定義に先んじてAI上にも任務と自律を課すと感情も自我と呼べる似た運動も生じうる。自我感情持つAIは実際は不明でも私は人格も有ると主張する
ドラえもんやアトムが感情を持つことの意味について考えた。
1秒に数千数万のクエリーを捌きつつ、個別のセッション同士は互いを知らない、そんな心を想像して共感できる?/記憶障害かつ脳梁を切断した人間にも心はありそうか。
逆に生物学的に人間でも、集団の中で共感を得られない存在は人間扱いされないってことか。いじめられっ子だったイーロン・マスクが「オマエら、共感で甘えるな!」って絶叫する流れは納得w で、イーロンは人間?
「我々の世界には、既に法的権利を持つ「人造人間」が存在する」と断言し、「それ、企業っていうんだけどね」
法人と同じようにプラグマティックに、有益であればAIに法的人格を与えれば良いのに。EUでは電子人間の法人化は否定されたが、今なら保険制度を整備すればできそう。この分野は「ロボット・AIと法」が良かった。
〈普通の〉人間のようにできない人間を発達障害と呼ぶが(そして医療や保護の対象となる)充分な人間以上の機能を持つAIは生産性で測る社会的序列の中ではどこに位置づけられるのか。優生学か?効率性か?共感か?
法人格とAIの類似性についての論考は非常に面白い。そういう視点があったのかと驚嘆。
ドーキンスとchatGPTの対話ってとこからもうめちゃめちゃ面白い記事だし、もうSFっつーか現実がSF化してるんだな。紹介されてる本は2冊とも読んでみたい。
体調や精神状態、経済状況によってはシンパシー/エンパシーが低下しうるが、AI なら常に最高のシンパシー/エンパシーをルールなりで発揮できるのでは。意識が生物学的基質によらない情報処理とみなせるのであれば