メールとかオフィスが出始めた頃とかと同じ
なるほど政治家も秘書はぜんぶAIにすればいいのか!
考えられた条件分岐ワークフローに比べてAIは明らかに劣化してる。はやく幻滅期が来てほしい
既にAIに思考すら丸投げしてるのがチラホラ出てきてるし、命にかかわる仕事でも「AIがOKって言ったのでヨシッ!」で未確認のまま突き進んで発生する事故は、AIの進化に比例して増えて問題になりそう
AIを、科学者なAIと母親なAIと女なAIの協議制にせな
当たり前。出力結果をどう使うかは生成した人が責任を負うもの。
人間は責任を負うためだけにいる
AIを人間に置き換えて考えればそれはそうでしょという話でしかない。人間と違って責任も押し付けることが出来ないだけで
仕事にAIを使う人間でAIの出力結果に使用者である自分は責任がないなどと主張する人は、そうそういないと思うのだよな。/日本語の煽り文がおかしいだけで、記事自体はしごく真っ当な内容。
法的規制が必要なのはこの部分だよな。この人間の責任との境界辺りからキチンと線引きされないとリスクとリターンの議論ができない。自動車以降の交通法規と同じでね。
“3つのポイント 1. AIエージェントは生活を快適にするが制御権を手放すリスクがある 2. 自律性が高いほど人間の制御は少なくなり危険性が増す 3. 人間による監視を維持しつつ開発を進めることが重要だ”
人間がやりましたでも通用しないと思うけどね。そんなに大切なものなら他人任せにしないで自分でやれよ、孫請けひ孫受けに流してるとこは潰れるだろうな
今の所は、AIにやらせました。/スマホはもはや俺の臓器って歌もあるけど、誰かが方向づけたAIでも教師にできる。
対価は受け取って責任は取らないわけにはいかんわな。
人間はAIがやることをある程度理解する必要がある。或いは、セグメントに分けて汎用度の高いものはAIに丸投げし、そうでないものに集中する、とか。専門性より、総合的な知識や思考力、理解力が人間に求められる。
“悪い結果に対する言い訳として、「それは私じゃない。エージェントが勝手にやったことだ」というのが常套句になる日も近いかもしれない。”
生成AIも同じだが、AIを利用し成果を利用した者が責任を取ることになろう
問題が生じた時の言い訳に「AIが勝手に言った(やった)」と責任転嫁することが増えるだろうし、それは「私はAIを使いこなせず、責任も取りません」と言っているのと同義なので、言葉通り仕事を奪われるだろう。
まさにサマウォ
AIの役回りが客観視されるようになると、セリフ憶えが良いだけの役者や、台本を感情的に読み上げるだけの政治家の存在が、AIと大差無い空虚なモノとして認知しなおされるものなのかねえ…。
端的に言えば、「銃ではなく、引き金を引いた人間に責任をとらせる」という話。AIとか呼ぶから錯覚するだけの話。
人間の部下や外注に頼んでも同じだと思うけど。
合議制良いな。MAGIシステム良いかもなぁ。
当然セキュリティに関して知識がある人間が使うべきだし、生成されたコードは全て理解してからリリースするだろ。そもそもコードすら読めないような馬鹿が利用するようなものではない。
“AIシステムの自律性が高まれば高まるほど、人間はますます制御権を放棄することになる。人間が監視する必要が少なくなるという「売り」の機能そのものが、最も深刻な脆弱性となり得るのだ。”
納品前に確認しろ。ってことだよな。
「AIがやりました」通用せず、エージェント丸投げが招く制御喪失の危機
メールとかオフィスが出始めた頃とかと同じ
なるほど政治家も秘書はぜんぶAIにすればいいのか!
考えられた条件分岐ワークフローに比べてAIは明らかに劣化してる。はやく幻滅期が来てほしい
既にAIに思考すら丸投げしてるのがチラホラ出てきてるし、命にかかわる仕事でも「AIがOKって言ったのでヨシッ!」で未確認のまま突き進んで発生する事故は、AIの進化に比例して増えて問題になりそう
AIを、科学者なAIと母親なAIと女なAIの協議制にせな
当たり前。出力結果をどう使うかは生成した人が責任を負うもの。
人間は責任を負うためだけにいる
AIを人間に置き換えて考えればそれはそうでしょという話でしかない。人間と違って責任も押し付けることが出来ないだけで
仕事にAIを使う人間でAIの出力結果に使用者である自分は責任がないなどと主張する人は、そうそういないと思うのだよな。/日本語の煽り文がおかしいだけで、記事自体はしごく真っ当な内容。
法的規制が必要なのはこの部分だよな。この人間の責任との境界辺りからキチンと線引きされないとリスクとリターンの議論ができない。自動車以降の交通法規と同じでね。
“3つのポイント 1. AIエージェントは生活を快適にするが制御権を手放すリスクがある 2. 自律性が高いほど人間の制御は少なくなり危険性が増す 3. 人間による監視を維持しつつ開発を進めることが重要だ”
人間がやりましたでも通用しないと思うけどね。そんなに大切なものなら他人任せにしないで自分でやれよ、孫請けひ孫受けに流してるとこは潰れるだろうな
今の所は、AIにやらせました。/スマホはもはや俺の臓器って歌もあるけど、誰かが方向づけたAIでも教師にできる。
対価は受け取って責任は取らないわけにはいかんわな。
人間はAIがやることをある程度理解する必要がある。或いは、セグメントに分けて汎用度の高いものはAIに丸投げし、そうでないものに集中する、とか。専門性より、総合的な知識や思考力、理解力が人間に求められる。
“悪い結果に対する言い訳として、「それは私じゃない。エージェントが勝手にやったことだ」というのが常套句になる日も近いかもしれない。”
生成AIも同じだが、AIを利用し成果を利用した者が責任を取ることになろう
問題が生じた時の言い訳に「AIが勝手に言った(やった)」と責任転嫁することが増えるだろうし、それは「私はAIを使いこなせず、責任も取りません」と言っているのと同義なので、言葉通り仕事を奪われるだろう。
まさにサマウォ
AIの役回りが客観視されるようになると、セリフ憶えが良いだけの役者や、台本を感情的に読み上げるだけの政治家の存在が、AIと大差無い空虚なモノとして認知しなおされるものなのかねえ…。
端的に言えば、「銃ではなく、引き金を引いた人間に責任をとらせる」という話。AIとか呼ぶから錯覚するだけの話。
人間の部下や外注に頼んでも同じだと思うけど。
合議制良いな。MAGIシステム良いかもなぁ。
当然セキュリティに関して知識がある人間が使うべきだし、生成されたコードは全て理解してからリリースするだろ。そもそもコードすら読めないような馬鹿が利用するようなものではない。
“AIシステムの自律性が高まれば高まるほど、人間はますます制御権を放棄することになる。人間が監視する必要が少なくなるという「売り」の機能そのものが、最も深刻な脆弱性となり得るのだ。”
納品前に確認しろ。ってことだよな。