"新しいポリシーなど存在せず、Samという人物も架空の人間であることが明らかになったといいます。Samの返答はAIのもので、新しいポリシーは「幻覚」"←AIが対応していることを明示するよう義務化する法律は欲しいな。
コンテキストウィンドウの限界だったか?透明性が低いのは体質としてアカンな
「生成AIのハルシネーションは誤ったアウトプットではなく並行世界の情報を元に出力されていた」みたいなのがコアなギミックになっているSF作品読んでみたいな。
AIに元ソースをでっち上げさせれば完璧。/嘘を言うAIって致命的な欠点なのよね。
サムじゃなくてクリシュナとかだったら、インド人なら仕方ないってなったのに…(ならない)
先日もAIハッカソンで、GeminiでVibeコーディングしてたら急にアホになって大変なことがあったなあ…
派遣にサポート対応させるときは上司が確認するのに、AIだとそこをサボるのはなぜ?
CEO“「根本的に、AIはユーザーの考えを理解していないのです。”
人間を装うのはダメだねぇ
金が絡むとアレオレで何も知らんと実装したがる連中も増えるし詐欺師も出てくるからなw。ちゃんと使えば革新的なツールもバカに任せたらあかんのやで。バカとはさみは使いようというか蹴る馬も乗り手次第やで。
まぁここ難しいよね.... 大体出来るから任せちゃうとたまに失敗したときに困る..
キャシー・コジルコフ氏の弁に尽きる。
サポートAIはFAQへのリンクを目的にチャット対話で絞り込みさせる検索の拡張として発展するといいなー。「要するにこういうことですか?」と顧客の状況整理を言語化するサポートもあり。エスカレーションもスムーズ。
現状はハルシネーションを回避することは難しいからなぁ。人間は間違えるが、AIも間違える。
「曖昧なものを扱えるが、結果の精度も曖昧な機械」を使っていることを肝に銘じないといけない。仕組み上しばらくはそう
利用者はAIだから嘘かもねなんて思わないからね…人間の目視は必要だよ
こないだから、カーソルがファイルを壊しまくるようになった。何が起きてるのかな。
ハルシネーションなんて散々言われてきてるのに。うちは大丈夫という正常性バイアスの罠なんてもう企業側の自己責任の範囲でしょう。
なんでAIが回答してますって言う予防線になる注釈を書いておかなかったんだろう?
シンプルに客にウソ付くなや。
“ユーザは人間を装った機械に欺かれることを嫌う、ということをリーダーが理解していれば避けられたはずです」と述べました。”
何なら満足にできるんだよ
一次ソースの確認が必要
「全面的にAIに頼るのもよくない」「この混乱は、AIは間違いを犯す、AIはその間違いの責任を取ることができない、ユーザは人間を装った機械に欺かれることを嫌う、ということをリーダーが理解していれば避けられたはず
サポートコメント送信前に、別のAIでチェックさせるくらいすればいいのではないか
deepsearchのように必ず出典にあたるようにしたらダメなんだろうか。
おー、AIリスクだ
顧客サポートAIアシスタントが顧客に誤った情報を伝えてしまった。
AIは責任を持てない、というのもあるけど「みんな同じなので答えられないものには等しく答えられない」という弊害もありそう。人間が個体差の集積で補っているものが今のAIにはない
まずウソを言わない人間を連れてきてください。実際人間ならよく分からないなら死刑にすればいいというのはある、AIの代わりに刑務所に行く仕事が急速に増えると思う。
“全面的にAIに頼るのもよくない”
“ところが、この顧客サポートAIアシスタントが顧客に誤った情報を伝えるという事態が発生しました。”
技術的にチェック手段がないわけではなく前時代的な「顧客サポートは嘘言っても良い」ってスタンスの問題な気がする。/コストが許す限り個体差つけてマイナス評価は脱落の蠱毒エンタメにすれば人気?は出ると思う。
顧客サポートAIが暴走してコードエディターAI「Cursor」開発企業の評判がガタ落ちに
"新しいポリシーなど存在せず、Samという人物も架空の人間であることが明らかになったといいます。Samの返答はAIのもので、新しいポリシーは「幻覚」"←AIが対応していることを明示するよう義務化する法律は欲しいな。
コンテキストウィンドウの限界だったか?透明性が低いのは体質としてアカンな
「生成AIのハルシネーションは誤ったアウトプットではなく並行世界の情報を元に出力されていた」みたいなのがコアなギミックになっているSF作品読んでみたいな。
AIに元ソースをでっち上げさせれば完璧。/嘘を言うAIって致命的な欠点なのよね。
サムじゃなくてクリシュナとかだったら、インド人なら仕方ないってなったのに…(ならない)
先日もAIハッカソンで、GeminiでVibeコーディングしてたら急にアホになって大変なことがあったなあ…
派遣にサポート対応させるときは上司が確認するのに、AIだとそこをサボるのはなぜ?
CEO“「根本的に、AIはユーザーの考えを理解していないのです。”
人間を装うのはダメだねぇ
金が絡むとアレオレで何も知らんと実装したがる連中も増えるし詐欺師も出てくるからなw。ちゃんと使えば革新的なツールもバカに任せたらあかんのやで。バカとはさみは使いようというか蹴る馬も乗り手次第やで。
まぁここ難しいよね.... 大体出来るから任せちゃうとたまに失敗したときに困る..
キャシー・コジルコフ氏の弁に尽きる。
サポートAIはFAQへのリンクを目的にチャット対話で絞り込みさせる検索の拡張として発展するといいなー。「要するにこういうことですか?」と顧客の状況整理を言語化するサポートもあり。エスカレーションもスムーズ。
現状はハルシネーションを回避することは難しいからなぁ。人間は間違えるが、AIも間違える。
「曖昧なものを扱えるが、結果の精度も曖昧な機械」を使っていることを肝に銘じないといけない。仕組み上しばらくはそう
利用者はAIだから嘘かもねなんて思わないからね…人間の目視は必要だよ
こないだから、カーソルがファイルを壊しまくるようになった。何が起きてるのかな。
ハルシネーションなんて散々言われてきてるのに。うちは大丈夫という正常性バイアスの罠なんてもう企業側の自己責任の範囲でしょう。
なんでAIが回答してますって言う予防線になる注釈を書いておかなかったんだろう?
シンプルに客にウソ付くなや。
“ユーザは人間を装った機械に欺かれることを嫌う、ということをリーダーが理解していれば避けられたはずです」と述べました。”
何なら満足にできるんだよ
一次ソースの確認が必要
「全面的にAIに頼るのもよくない」「この混乱は、AIは間違いを犯す、AIはその間違いの責任を取ることができない、ユーザは人間を装った機械に欺かれることを嫌う、ということをリーダーが理解していれば避けられたはず
サポートコメント送信前に、別のAIでチェックさせるくらいすればいいのではないか
deepsearchのように必ず出典にあたるようにしたらダメなんだろうか。
おー、AIリスクだ
顧客サポートAIアシスタントが顧客に誤った情報を伝えてしまった。
AIは責任を持てない、というのもあるけど「みんな同じなので答えられないものには等しく答えられない」という弊害もありそう。人間が個体差の集積で補っているものが今のAIにはない
まずウソを言わない人間を連れてきてください。実際人間ならよく分からないなら死刑にすればいいというのはある、AIの代わりに刑務所に行く仕事が急速に増えると思う。
“全面的にAIに頼るのもよくない”
“ところが、この顧客サポートAIアシスタントが顧客に誤った情報を伝えるという事態が発生しました。”
技術的にチェック手段がないわけではなく前時代的な「顧客サポートは嘘言っても良い」ってスタンスの問題な気がする。/コストが許す限り個体差つけてマイナス評価は脱落の蠱毒エンタメにすれば人気?は出ると思う。