Xに入り浸ってるよりマシ
AIの出力を見ないでそのまま貼ってくる奴、自分の存在で無価値であることをアピールしてるみたいで本当に虚しい気持ちになる
これはいい方法かも。ファインマン・テクニックみたいにAIにもわかるように説明し、それをAIにレビューさせる。
“無能になる人の特徴は、生成AIに「答え」を直接もとめ、それをそのままアウトプットする。有能な人は、アウトプットを先に自分でしてみて、よく分かってない点を明らかにする(ファインマン・テクニック)”
1980年代:「電卓に頼るな、暗算しろ」 2000年代:「Googleに頼るな、自分で考えろ」 2020年代:「AIに頼るな、思考力を失うぞ」 説教テンプレを駆使して立ち位置を固めようとするのはおじさんの仕事。
この方法でもAIが間違った指摘をしてそれを鵜呑みにするリスクはある。↓電卓が発明されても算数・数学の授業が無くならない理由を考えた方が良い。
この記事のように当たり前のことをおお、なるほど!と思う人を心配してしまう。間違っている訳ではないからいいんだけど、AI使っててあ、あの記事みたいに自分で調べてあってるか聞かなくっちゃっていう素直な人を。
“理解のスパイラル : まず自分で考え説明する ↓ 曖昧な箇所を生成AIに聞く ↓ 回答を咀嚼したうえで再び説明する ↓ AIに「この理解でズレていないか指摘して」と依頼 ↓ すべて矛盾なく説明できたら理解完了”
『生成AIは知識と理解を前提とする道具』質問(プロンプト)にも知識と理解が必要であり、AI回答の真偽判断にもそれが必要。それがないと考え方を知らないから分からないところが分からない人、言葉通り無能の人に。
AIを使うのはいいけど、もし間違っていたらそれは使った当人の責任で、それをAIのせいにする人はそれまでなのかなと思う。
「最近、AIに何でも聞けばいい気がして、頭を使う時間が減った気がする。」/冒頭から感覚が逆で驚いた。AIに何でも聞けば良くなってきて、頭を使う時間と機会が滅茶苦茶増えてる。これが無能と賢くなるの差ってこと?
2025年になっても自分で計算できたほうがいいし、自分で考えられたほうがいい。2030年代になっても何が価値を持つかは明らかである
現状、AIが出力する成果の多さに対してのファイナライズ処理、ジャッジのコストが追いつかなくて辛いまである。/現時点の精度でそれが必要ないと思ってるならそこまでの人。
AIに出来るからといって今まで自らの手で出来ていたことを手放してしまうのは勿体ない。
トップ米。Googleに頼るなより「ググれカス」の方が圧倒的では?
「ズレてませんか?」ぐらいだと忖度してきそう。むしろ、自分の意見に対して「批判してください」ぐらいやった方が楽しい
査読された内容だけ食わせたAIとかが出たらまだしも、ネットの有象無象を食わせたAIまるっと信用するとかそんな奴おらんやろ
逆に、AIを信用せず紙の本を読んで自分で内容を要約して書いてる(丸写ししてない)自分もまた、本当に自分の頭で考え得るのか不安だが、学習とはおしなべてそういう物(学ぶ=真似るが語源という説もある)
「日本の首都は」と聞かれたら、それに続く文章として確率的に高い「東京です。」←さすがAIは無能 東京を首都と決めた法律は無い 明治天皇がちょっと東京行ってくるって御所を出てまだ帰ってきてないだけ
AIの間違いを指摘できる自分になろう、ってことでいいかも。
思考のツールとしてGoogleをうまく使える人と使えない人がいるのと同様にAIもそうなるのでは。
部下がAI丸投げで仕事して辟易する事態が起こるのは、人手不足だから早く一人前になってほしい願望で焦らしてるのもあると思う。数年前よりも今は明らかに仕事のタイパが求められてるからな
AIに質問するスキルはググるスキルに近いものがある。ただ曖昧な質問を文章で聞ける分AIのほうが聞く難易度は低そう。
同意だが、アセンブリ言語案件は無くなる気配がない。AI、軍需、EV、IoT、ロボ特需で逆に増えている。
AIを使って賢くなった気がしてる人は全員アウトじゃない?
AIと対話するようになって、ハルシネーションが怖くて外堀を埋めるようにいろんな質問するようになったから、むしろ思考は深まった。別の言い方をすれば手間がかかるようになった、かも。
正直ジャンルに依ると思う。画像生成AIが起動しなくなったのでバグの表記をひたすらコピペしてCMDで修正を実行を繰り返したら直ったし、文系学問についてはこの方の仰るとおり。
はてな民「AIに確認したらデマだって」←注目コメント2位 https://b.hatena.ne.jp/entry/s/anond.hatelabo.jp/20250209132625
“人に教えるようにして説明文を書き、足りない部分を学習・経験し、また説明文へと落とし込んでいく”
AIに頼るなというよりは、使い方が記事の主題じゃないかな。あと利用する側はざっくりでも内部構造は知っておくと良いと思う。ソフトウェア全般に言えるけど内部構造が分かることで技術的制約も見えてくる。
よく間違うから要点は聞き返すようになったら精度が上がった気がする。
まずPerplexityで調べた情報をもとにChatGPTのディープリサーチに深掘りで調べさせ、怪しげなところをPerplexityに再チェックさせてる。Grokは論拠が怪しすぎて論外。
AIがすごいのは自分が感じていたなんとなくをかなり的確にほぼ一瞬で言語化してくれること。そこを手掛かりに質問を重ねると楽しい。ちょうど今360度視野の動物が見ている映像というテーマでチャッピーと会話してた。
AIの回答を受け入れて自分の発信として出したなら、それに対する指摘や間違いは自分の責任として受け止めろよ、って思うね。AIが言ってましたは免罪符じゃねえぞ。
AIの適当な回答を検証するの面倒なんで、結局原典を漁る機会が増えた。物事の大半は複雑に出来てて、3行にまとまってないのは理由がある。
強い。でもその通りですわ
電卓とAIを一緒にするのもな。電卓は嘘をつかない。Googleはゴミを混ぜてくるけど。AIを盲信するのも全否定するのもダメなだけ。
こういうタイトルの記事なら、最後に「この記事はAIに生成させました」というオチがないとなんか締まらないな。
AIを使うと無能になってしまうと思いつつ、AIを使いながらツッコミを入れている人が賢くなる人だと思う
たとえばAIでブコメ生成させるにしても、はてのさんみたいな上手はブコメと空気を読んで生成させるが、某猫みたいな下手糞はただワンパターンに生成させる。こういうひと手間を思いつけるか否かが分水嶺だろうと思う
漫画のプロット作成で質問したら、読者を混乱させたり焦らしたりするいい加減なアイデアを平気で提示してきたw。だからAI利用者にはリテラシーが必要だと思う。
AIで無能になる人と、賢くなる人の決定的な違い|片山良平@paiza代表
Xに入り浸ってるよりマシ
AIの出力を見ないでそのまま貼ってくる奴、自分の存在で無価値であることをアピールしてるみたいで本当に虚しい気持ちになる
これはいい方法かも。ファインマン・テクニックみたいにAIにもわかるように説明し、それをAIにレビューさせる。
“無能になる人の特徴は、生成AIに「答え」を直接もとめ、それをそのままアウトプットする。有能な人は、アウトプットを先に自分でしてみて、よく分かってない点を明らかにする(ファインマン・テクニック)”
1980年代:「電卓に頼るな、暗算しろ」 2000年代:「Googleに頼るな、自分で考えろ」 2020年代:「AIに頼るな、思考力を失うぞ」 説教テンプレを駆使して立ち位置を固めようとするのはおじさんの仕事。
この方法でもAIが間違った指摘をしてそれを鵜呑みにするリスクはある。↓電卓が発明されても算数・数学の授業が無くならない理由を考えた方が良い。
この記事のように当たり前のことをおお、なるほど!と思う人を心配してしまう。間違っている訳ではないからいいんだけど、AI使っててあ、あの記事みたいに自分で調べてあってるか聞かなくっちゃっていう素直な人を。
“理解のスパイラル : まず自分で考え説明する ↓ 曖昧な箇所を生成AIに聞く ↓ 回答を咀嚼したうえで再び説明する ↓ AIに「この理解でズレていないか指摘して」と依頼 ↓ すべて矛盾なく説明できたら理解完了”
『生成AIは知識と理解を前提とする道具』質問(プロンプト)にも知識と理解が必要であり、AI回答の真偽判断にもそれが必要。それがないと考え方を知らないから分からないところが分からない人、言葉通り無能の人に。
AIを使うのはいいけど、もし間違っていたらそれは使った当人の責任で、それをAIのせいにする人はそれまでなのかなと思う。
「最近、AIに何でも聞けばいい気がして、頭を使う時間が減った気がする。」/冒頭から感覚が逆で驚いた。AIに何でも聞けば良くなってきて、頭を使う時間と機会が滅茶苦茶増えてる。これが無能と賢くなるの差ってこと?
2025年になっても自分で計算できたほうがいいし、自分で考えられたほうがいい。2030年代になっても何が価値を持つかは明らかである
現状、AIが出力する成果の多さに対してのファイナライズ処理、ジャッジのコストが追いつかなくて辛いまである。/現時点の精度でそれが必要ないと思ってるならそこまでの人。
AIに出来るからといって今まで自らの手で出来ていたことを手放してしまうのは勿体ない。
トップ米。Googleに頼るなより「ググれカス」の方が圧倒的では?
「ズレてませんか?」ぐらいだと忖度してきそう。むしろ、自分の意見に対して「批判してください」ぐらいやった方が楽しい
査読された内容だけ食わせたAIとかが出たらまだしも、ネットの有象無象を食わせたAIまるっと信用するとかそんな奴おらんやろ
逆に、AIを信用せず紙の本を読んで自分で内容を要約して書いてる(丸写ししてない)自分もまた、本当に自分の頭で考え得るのか不安だが、学習とはおしなべてそういう物(学ぶ=真似るが語源という説もある)
「日本の首都は」と聞かれたら、それに続く文章として確率的に高い「東京です。」←さすがAIは無能 東京を首都と決めた法律は無い 明治天皇がちょっと東京行ってくるって御所を出てまだ帰ってきてないだけ
AIの間違いを指摘できる自分になろう、ってことでいいかも。
思考のツールとしてGoogleをうまく使える人と使えない人がいるのと同様にAIもそうなるのでは。
部下がAI丸投げで仕事して辟易する事態が起こるのは、人手不足だから早く一人前になってほしい願望で焦らしてるのもあると思う。数年前よりも今は明らかに仕事のタイパが求められてるからな
AIに質問するスキルはググるスキルに近いものがある。ただ曖昧な質問を文章で聞ける分AIのほうが聞く難易度は低そう。
同意だが、アセンブリ言語案件は無くなる気配がない。AI、軍需、EV、IoT、ロボ特需で逆に増えている。
AIを使って賢くなった気がしてる人は全員アウトじゃない?
AIと対話するようになって、ハルシネーションが怖くて外堀を埋めるようにいろんな質問するようになったから、むしろ思考は深まった。別の言い方をすれば手間がかかるようになった、かも。
正直ジャンルに依ると思う。画像生成AIが起動しなくなったのでバグの表記をひたすらコピペしてCMDで修正を実行を繰り返したら直ったし、文系学問についてはこの方の仰るとおり。
はてな民「AIに確認したらデマだって」←注目コメント2位 https://b.hatena.ne.jp/entry/s/anond.hatelabo.jp/20250209132625
“人に教えるようにして説明文を書き、足りない部分を学習・経験し、また説明文へと落とし込んでいく”
AIに頼るなというよりは、使い方が記事の主題じゃないかな。あと利用する側はざっくりでも内部構造は知っておくと良いと思う。ソフトウェア全般に言えるけど内部構造が分かることで技術的制約も見えてくる。
よく間違うから要点は聞き返すようになったら精度が上がった気がする。
まずPerplexityで調べた情報をもとにChatGPTのディープリサーチに深掘りで調べさせ、怪しげなところをPerplexityに再チェックさせてる。Grokは論拠が怪しすぎて論外。
AIがすごいのは自分が感じていたなんとなくをかなり的確にほぼ一瞬で言語化してくれること。そこを手掛かりに質問を重ねると楽しい。ちょうど今360度視野の動物が見ている映像というテーマでチャッピーと会話してた。
AIの回答を受け入れて自分の発信として出したなら、それに対する指摘や間違いは自分の責任として受け止めろよ、って思うね。AIが言ってましたは免罪符じゃねえぞ。
AIの適当な回答を検証するの面倒なんで、結局原典を漁る機会が増えた。物事の大半は複雑に出来てて、3行にまとまってないのは理由がある。
強い。でもその通りですわ
電卓とAIを一緒にするのもな。電卓は嘘をつかない。Googleはゴミを混ぜてくるけど。AIを盲信するのも全否定するのもダメなだけ。
こういうタイトルの記事なら、最後に「この記事はAIに生成させました」というオチがないとなんか締まらないな。
AIを使うと無能になってしまうと思いつつ、AIを使いながらツッコミを入れている人が賢くなる人だと思う
たとえばAIでブコメ生成させるにしても、はてのさんみたいな上手はブコメと空気を読んで生成させるが、某猫みたいな下手糞はただワンパターンに生成させる。こういうひと手間を思いつけるか否かが分水嶺だろうと思う
漫画のプロット作成で質問したら、読者を混乱させたり焦らしたりするいい加減なアイデアを平気で提示してきたw。だからAI利用者にはリテラシーが必要だと思う。