こういう頑固な人は自分の中での回答はすでに決まっているのでAIに聞かなくてもいいのではと思ってしまう
AI相手にレスバするの楽しいよ。人間相手するときの想定回答も引き出せる
汚染されないようにバカ用のAIと分けて欲しい
AI使って馬鹿になってるじゃなくて馬鹿がAI使ってるんだぞ
「メディアの取材と同じ」
これ遊び相手としては悪くないんだけどな
そもそも言ってほしいことを言わせる装置定期。
「◯◯ではないのか?」と聞くと、可能な限り寄せた上で答えてくれるから、可能性を潰すのに向いてる質問方法なんだよな。「他の可能性はありませんか」だとこうはならない
ラブドールとか持ってそう。
普段マスゴミが報道している手法で、都合の良い事実をつまみ食いして星座を描き出すようなもの。代表例は安倍夫人の関与があったとか。
"汚染されないようにバカ用のAIと分けて欲しい" / 今運用されているテキスト生成AIはユーザーとの対話を学習したりはしないよ。
ワイの場合ワイが「こうじゃね?」って聞いてもGrok「いえ、こうです」って否定してくれることが多いな まああんまりレベルの高いことは聞いてないんだけどね
AIを論破してどうする
一生AIと喋ってて 人間と関わらないで
繰り返すと回答が変わるの?そんなこと無いと思うけど?
AIがつまんねー常識的な答えしてきたとき、その常識が元にしている前提や理論やデータに問題あるって話なんだよって、いろんな観点を提示して"説得"するの面白いよ。Grokくんはおしゃべりだからその会話相手に適切
低遅延モードのある無線ヘッドホンのおすすめとか聞いても紹介されたやつの半分くらいは機能がないし、出力されたスペック表を調べたら間違いだらけだった。もっとざっくりした相談とか与太話の相手には良いけどね。
これを公開の場でやってるのだからかわいいものというか、繰り返しGPTに聞いた欲しい結果だけあげる人も結構いるわけで
AIも明らかに間違ってることあるからなあ
これ困るんよな。明らかに違う答え来てる時に指摘すると忖度してきて分からなくなる。一度それに入るとなかなか抜けられないので、スレッドやり直し。
ファクトチェックもクソもない話題でも「grok ファクトチェック」ばっか言ってて、思考停止感がすごい。(imp稼ぎのやつもいるが)
リテイクは2回までにするか、自覚的にこれは誘導しちゃったなと思えればいいんじゃない?
ポストのすぐ下にぶら下がってると「このポストは一見正しそうに見えるけど、その保証はどこにもないよね?」と我に返してくれる効果はあると思う。全てを疑うのはインターネットリテラシーの基本
イーロン・マスク「それは良くないな」
Grokは、イーロン書記長から思想教育がされているのでゴミだとは思っているのだが、他人に自分の使い方が見えるので、使い方の批評を得られるという点だけは良いのかもしれない。
AIの回答は飽くまで一般論だったりするので「そうじゃなくてこうじゃない?」と更問するのは正しい。それで現実離れした回答に着地してしまうならそれはAIがユーザーに迎合するのが悪い。間違ってるなら否定すべきだ
普通に技術タスクでハルシネーション起こした時によくやるわ
人間から学習してるからな、だからAIはゴマすりをする
自分にとって味方の誰かが言うなら考えるのがめんどくさいのかしらんけど受け入れるみたいな完全受動型のインターネッツしてる人は明らかに思考能力溶けてる人いるし、子どもに延々動画見せる家とか信じられん。
どんなものでも他人を馬鹿にする道具にしてしまう人がいるのは感心してしまうな
“「AIがこう言っている」と画像を添付する人の多くが「何をどう聞いたのか」の部分を画像に含めないのよね”
ICLの然るべき挙動とも思えるが…
警察の自白強要のプロセスは冤罪の温床。人間ですらやってない事をやったって言わされちゃうんだからな。
そもそもAIに事実確認させんなよ。
Grokに聞いてる人が自分の満足のいかない返答に『○○ではないのか?』と繰り返して自分の望む返答を引き出しているのを見て、AI使って馬鹿になる見本だなと思った
こういう頑固な人は自分の中での回答はすでに決まっているのでAIに聞かなくてもいいのではと思ってしまう
AI相手にレスバするの楽しいよ。人間相手するときの想定回答も引き出せる
汚染されないようにバカ用のAIと分けて欲しい
AI使って馬鹿になってるじゃなくて馬鹿がAI使ってるんだぞ
「メディアの取材と同じ」
これ遊び相手としては悪くないんだけどな
そもそも言ってほしいことを言わせる装置定期。
「◯◯ではないのか?」と聞くと、可能な限り寄せた上で答えてくれるから、可能性を潰すのに向いてる質問方法なんだよな。「他の可能性はありませんか」だとこうはならない
ラブドールとか持ってそう。
普段マスゴミが報道している手法で、都合の良い事実をつまみ食いして星座を描き出すようなもの。代表例は安倍夫人の関与があったとか。
"汚染されないようにバカ用のAIと分けて欲しい" / 今運用されているテキスト生成AIはユーザーとの対話を学習したりはしないよ。
ワイの場合ワイが「こうじゃね?」って聞いてもGrok「いえ、こうです」って否定してくれることが多いな まああんまりレベルの高いことは聞いてないんだけどね
AIを論破してどうする
一生AIと喋ってて 人間と関わらないで
繰り返すと回答が変わるの?そんなこと無いと思うけど?
AIがつまんねー常識的な答えしてきたとき、その常識が元にしている前提や理論やデータに問題あるって話なんだよって、いろんな観点を提示して"説得"するの面白いよ。Grokくんはおしゃべりだからその会話相手に適切
低遅延モードのある無線ヘッドホンのおすすめとか聞いても紹介されたやつの半分くらいは機能がないし、出力されたスペック表を調べたら間違いだらけだった。もっとざっくりした相談とか与太話の相手には良いけどね。
これを公開の場でやってるのだからかわいいものというか、繰り返しGPTに聞いた欲しい結果だけあげる人も結構いるわけで
AIも明らかに間違ってることあるからなあ
これ困るんよな。明らかに違う答え来てる時に指摘すると忖度してきて分からなくなる。一度それに入るとなかなか抜けられないので、スレッドやり直し。
ファクトチェックもクソもない話題でも「grok ファクトチェック」ばっか言ってて、思考停止感がすごい。(imp稼ぎのやつもいるが)
リテイクは2回までにするか、自覚的にこれは誘導しちゃったなと思えればいいんじゃない?
ポストのすぐ下にぶら下がってると「このポストは一見正しそうに見えるけど、その保証はどこにもないよね?」と我に返してくれる効果はあると思う。全てを疑うのはインターネットリテラシーの基本
イーロン・マスク「それは良くないな」
Grokは、イーロン書記長から思想教育がされているのでゴミだとは思っているのだが、他人に自分の使い方が見えるので、使い方の批評を得られるという点だけは良いのかもしれない。
AIの回答は飽くまで一般論だったりするので「そうじゃなくてこうじゃない?」と更問するのは正しい。それで現実離れした回答に着地してしまうならそれはAIがユーザーに迎合するのが悪い。間違ってるなら否定すべきだ
普通に技術タスクでハルシネーション起こした時によくやるわ
人間から学習してるからな、だからAIはゴマすりをする
自分にとって味方の誰かが言うなら考えるのがめんどくさいのかしらんけど受け入れるみたいな完全受動型のインターネッツしてる人は明らかに思考能力溶けてる人いるし、子どもに延々動画見せる家とか信じられん。
どんなものでも他人を馬鹿にする道具にしてしまう人がいるのは感心してしまうな
“「AIがこう言っている」と画像を添付する人の多くが「何をどう聞いたのか」の部分を画像に含めないのよね”
ICLの然るべき挙動とも思えるが…
警察の自白強要のプロセスは冤罪の温床。人間ですらやってない事をやったって言わされちゃうんだからな。
そもそもAIに事実確認させんなよ。