生成AIで作った文章ってなんであんな丸わかりなんだろう。 プロンプト工夫したらそう見えなくさせられるのかな。
ここでのジュニアは「子供」ではなく「新米」という意味らしい。「子供が遊びで作ったプログラムに責任とか…」と誤解してしまったわ
今生成AIで文章を書いてる人は「素早く大量に書ける」を優先しすぎ。文章は本来は「深く相手に伝わる」を重視すべきもの。
わかりみが深い。
ほんまそれ
“いわゆる「生成AI臭」みたいなものに最近は敏感になってきた。ChatGPTがよくくっつけてくる🔄とか✅とかのアイコンを見ると、アンテナが立ってしまう。なんなら箇条書きにまで構えるようになってきてしまった。”
ほんそれ。Slackにも流してほしくない。情報価値がゼロだから
生成AIの出力は「自信満々でくどくどした文体と分量」のほうが評価されやすい(=良い学習結果として淘汰を免れやすい)ので正誤に関わらずそういう出力になるよね。人間としては自信がないならそう言ってほしいが。
AIの出力が適切なものか判断できないなら仕事になってないんだよな。AIが人間を越えられないのではなく、人間が自分程度の賢さまでしかAIを使いこなせない。
うちではQiitaの中でも的外れな記事を参考元にしてた奴が、ろくに中身の検証や理解をしてないゴミ文書を、「AIに生成させたものなので」と言い訳しながら出してくるようになったな
コード書くより片付ける方が10倍難易度が高いんだよね。コピペプログラマが大量に増えた今の世の中はまあまあ地獄
ふむ
生成AI使ってるとその判断が出来なくなっていくって言われてるよね…「合ってる」「間違ってる」「そうだね」が分からなくなる。
AIを積極的に利用するのは歓迎だけど、自分がコミットしたコードは自分のコードだと認識して欲しいよね。どうしても理解出来ないなら最悪せめて動作確認・テストパターン網羅で品質担保して欲しい。
気持ちはわかるが、埼玉の殺人も熊本の殺人も責任取らないんだから無理
それはないな コピペのコードは例としては違い過ぎる これはグーグルの検索結果程度のものだ 責任があるとすればそれはグーグルになる つまりAIサービスならその元 ではローカルは?
自分が知らないことをAIには代替できないよね。その点では、信頼性の高い情報を調べさせて自分で勉強する方が多くなってきてる。
AI未満の人間がAIにやらせたものを排除できればそれでいいよ。AI未満の人間に責任なんか取れるわけがない。上位存在の責任を下位になんか取らせられない
自分で責任が取れないコードを自分の仕事として提出するな、という話でね。「「それは生成AIが作った部分なので・・」みたいに言われると徒労感がすごい」/プログラミングに限らず自動運転なんかもそうだけど(定期)
咀嚼がない、推敲がない、解釈がない。AIに使われている奴の雑音まみれの成果物にはうんざりするよな。使うならちゃんと使ってくれよ、使ったか分からない位に。
言い訳が「テストを通ったので」だったらどうだろうか。
このケースはただで読ませてもらってるんだから文句は言えない>記事の本質とズレるが、タダなら生成AIで十分だよな。人間が手書きするなら有料くらいが丁度いい。
私は書類や文書を作る仕事してるけど、AIに作成してもらいたい文章のあらすじを投げて生成された文章に、正しく無い表現・言い回し、フランクな語尾等を足して人間らしくするという、一見無駄な作業しております。
生成AIは内部的に矛盾しちゃうからオーディタブルな結果を吐かせないと困るんだよねぇ
一度こういう行為にはまった人間はどうすれば乗り越えられるのだろうか?
今のところ出てきたコードが自分で理解できるレベルでしか使ってない。
海外だともうこの課題は金儲けの種になってるけどね。ネガティヴな事言ってるのは多分日本だけだと思う。1年後にまた見返してみよう。この人どうなってるか。
AIに絶対できなくて人間にできるのは「責任を取る」ってことなので、今後はAIの失敗の責任を取るポストが創設されると思うのよね。なんか自治体とかで作る動きになってるみたいだし
自然言語でも画像でもそうだわ。publish した人間の責任で生成AIは免罪符にならない
https://events.sulekha.com/complete-list-of-expedi-support-contact-numbers-in-the-usa-representative-against_event-in_miami-fl_390952
バイブコーディングで「作ったものはオレの成果!そこで起きた事故はAIが悪い」ってやつ多いよな
grokにファクトチェックさせようとする(なお自分では一次ソース見ない)のが一番わかりやすいケースだと思う。あれはだめだよなぁ
今後は品質はテストで担保してコードの中身はブラックボックスになっていくんじゃないかな?
“生成AIに作らせたものを隅々まで自分で理解しない・説明できない (つまり責任を持てていない) ままそれを成果物として他人に見せるケースがあまりに多すぎるように感じている” 今後さらに増えていくんだろうなー
無意味に他人の時間を奪う成果物は有害だよね。当然、このブコメだって有害たり得るわけですけども。
同意。これがあるから生成AIに頼るのはなるべく局所的にしてる。
徐々に「よくわからんが動いてるからよし!」が許容される時代になっていき、たまにとんでもない事故が発生する世界になっていく可能性もあるかも
AI生成を精査せず提出するのは責任放棄。プログラマとしての最低限を欠いている。
これは、その通り。きちんと出自ぐらい把握しておいてほしい。いや、それすらもAIだとわからないか。
ファクトチェックの非対称コストはあるか、リンターや構成思想等でガチガチに固めておく必要もあるか
こういうやつプログラマー向いてないからやめた方がいいと思っている
その昔、なんだっけな、いかがでしたか?だったっけ、こんな流れあったよね、適当な検索結果流すやつ、naverまとめだったかな...?何も出てこないや、、
“ChatGPTがよくくっつけてくる🔄とか✅とかのアイコンを見ると、アンテナが立ってしまう”
検索エンジンで見つけたものをそのまま貼りました理解はしてません、みたいなものの生成AIバージョン。歴史は繰り返す。
人間が明確にボトルネックになるなら、人間を介在しない方向に進むのが資本主義というものなので、早晩このあたりの仕組みや常識は変わっていくんだろうね
同感。コーディングエージェントで生産したコードであっても、一行一行すべて説明できなきといけないし、ソフトウェアエンジニアはプロダクトに責任を持てる役割であらねばならない。
自分が一から書いたコードでも後から見返すと何やってるかわからなくなったりするのに、AIに書いてもらったコードなんていくら自分で確認しても後から見るとわからなくなってるよなと思う
「未来職安」だっけ>今後はAIの失敗の責任を取るポストが創設されると
責任をとることだけが代替不可能な人間の仕事になるんだろうね
どこまでAI活用するのかの目安かも。
“「あっている」でも「まちがっている」でもない、「そうだね」みたいな情報量ゼロのものは、それを読む方の人間にとって有害である。”
そのとおりだとしか言えん。学校のレポートならまだいいけど、仕事の成果物とかなら。
多分だがカジュアルに生成AI使いたい側は責任持ちたくなくて他人に丸投げしてそっちが持てって思ってるタイプで、筆者はおそらく権限移譲しても上流が責任持つと認識してレビューするタイプ。交わらないと思われ
これは本当にそうで、今までコピペしていたのをAIがやってくれるようになっただけで、その内容を理解する行程は必要なんだよね。生産性が何倍にもなったという人はこの部分をすっ飛ばしているのではという気がしてい
わかるけど無理なのでは。ホットペッパーのコピペくらいののりでAIがこういってた、って話を善意で言ってくるヒト居るし。https://dic.nicovideo.jp/a/%E3%83%9B%E3%83%83%E3%83%88%E3%83%9A%E3%83%83%E3%83%91%E3%83%BC%E3%82%92%E8%A6%8B%E3%81%9F
自分で書くなら、コードの中身を自信を持って言えて、トラブった時に修正すべき所がすぐ判る筈だが、AI任せだと動くが詳細不明になる、プロンプトに、各行にコードの目的をコメントで添えろ。と書けば良いのでは?
本当にこれ。あげくの果て「AIに書かせたから私は責任取らない」って表明までしてるのホント馬鹿か?って思う。
この通りで、かつその責任を必要十分に取れる人は少数派だと思っているので、生成AIには引き続き懐疑的
学生時代、建築設計をデザインや構造(耐久性)を考慮しつつウンウン唸って描いた。仮にAIが設計した建物に人々はどれだけ身体を預けることができるか気になる。(地震や水害、雪等各国各地域の条件が抜けると怖い)
アイコンとか箇条書きとか,あと「太字: …」とかも身構える。
AIに生成させてそれを使うことの責任を持たない人がいるのか、険しいな
レビューをAIがやってくれる時代はよ。
気持ちはすごいよくわかる。ただ「AIが作ったからそうなった」は、今後ある程度許容していくことになるんかもなとも…
移行期で発生する議論であろう、近い将来この人間の確認コストの費用対効果が合わなくなり、とりあえず動いてるからリリースしようぜ、になりそう それでも、正しい判断ができるように努力はし続けないといけない
こんな事をわざわざ言っていかなければならんのか。日本人の頭悪すぎるだろ。
ネットにはゴミが多すぎるので本に回帰してる
そもそもAIの対応範囲は単体テストまでだし、人間が作ったものであっても結合テストは十分するでしょう。そういう意味で言うと、今までと変わらないプロセスで実装が爆速ってだけだからAI叩きする必要は無いのでは。
それを言うなら自分が採用したオープンソースのOSやミドルウェアのバグにも責任を持てって話になって、そりゃ建前上そうなのだけど、実際自分が使ってるOSSのバグを自力で修正できる人がどれくらいいるのかって話で。
“生成AIを (成果物をつくるために) 使う権利があるのは、生成AIの生成物を必要に応じて「捨てる」ことができる者に限ると思う。”
わかりみ
コードを見たこともない他メンバーのコードやサードパーティ製ライブラリが自プロダクトに含まれているのは許容できて、AIが書いたコードが含まれるのが許容できないというのが良くわからない
僕はそうするしそうして欲しいけど、次の世代もそうあるべきとは思わない。
はい。
生成AIの成果物に責任を持ってくれ|qsona
生成AIで作った文章ってなんであんな丸わかりなんだろう。 プロンプト工夫したらそう見えなくさせられるのかな。
ここでのジュニアは「子供」ではなく「新米」という意味らしい。「子供が遊びで作ったプログラムに責任とか…」と誤解してしまったわ
今生成AIで文章を書いてる人は「素早く大量に書ける」を優先しすぎ。文章は本来は「深く相手に伝わる」を重視すべきもの。
わかりみが深い。
ほんまそれ
“いわゆる「生成AI臭」みたいなものに最近は敏感になってきた。ChatGPTがよくくっつけてくる🔄とか✅とかのアイコンを見ると、アンテナが立ってしまう。なんなら箇条書きにまで構えるようになってきてしまった。”
ほんそれ。Slackにも流してほしくない。情報価値がゼロだから
生成AIの出力は「自信満々でくどくどした文体と分量」のほうが評価されやすい(=良い学習結果として淘汰を免れやすい)ので正誤に関わらずそういう出力になるよね。人間としては自信がないならそう言ってほしいが。
AIの出力が適切なものか判断できないなら仕事になってないんだよな。AIが人間を越えられないのではなく、人間が自分程度の賢さまでしかAIを使いこなせない。
うちではQiitaの中でも的外れな記事を参考元にしてた奴が、ろくに中身の検証や理解をしてないゴミ文書を、「AIに生成させたものなので」と言い訳しながら出してくるようになったな
コード書くより片付ける方が10倍難易度が高いんだよね。コピペプログラマが大量に増えた今の世の中はまあまあ地獄
ふむ
生成AI使ってるとその判断が出来なくなっていくって言われてるよね…「合ってる」「間違ってる」「そうだね」が分からなくなる。
AIを積極的に利用するのは歓迎だけど、自分がコミットしたコードは自分のコードだと認識して欲しいよね。どうしても理解出来ないなら最悪せめて動作確認・テストパターン網羅で品質担保して欲しい。
気持ちはわかるが、埼玉の殺人も熊本の殺人も責任取らないんだから無理
それはないな コピペのコードは例としては違い過ぎる これはグーグルの検索結果程度のものだ 責任があるとすればそれはグーグルになる つまりAIサービスならその元 ではローカルは?
自分が知らないことをAIには代替できないよね。その点では、信頼性の高い情報を調べさせて自分で勉強する方が多くなってきてる。
AI未満の人間がAIにやらせたものを排除できればそれでいいよ。AI未満の人間に責任なんか取れるわけがない。上位存在の責任を下位になんか取らせられない
自分で責任が取れないコードを自分の仕事として提出するな、という話でね。「「それは生成AIが作った部分なので・・」みたいに言われると徒労感がすごい」/プログラミングに限らず自動運転なんかもそうだけど(定期)
咀嚼がない、推敲がない、解釈がない。AIに使われている奴の雑音まみれの成果物にはうんざりするよな。使うならちゃんと使ってくれよ、使ったか分からない位に。
言い訳が「テストを通ったので」だったらどうだろうか。
このケースはただで読ませてもらってるんだから文句は言えない>記事の本質とズレるが、タダなら生成AIで十分だよな。人間が手書きするなら有料くらいが丁度いい。
私は書類や文書を作る仕事してるけど、AIに作成してもらいたい文章のあらすじを投げて生成された文章に、正しく無い表現・言い回し、フランクな語尾等を足して人間らしくするという、一見無駄な作業しております。
生成AIは内部的に矛盾しちゃうからオーディタブルな結果を吐かせないと困るんだよねぇ
一度こういう行為にはまった人間はどうすれば乗り越えられるのだろうか?
今のところ出てきたコードが自分で理解できるレベルでしか使ってない。
海外だともうこの課題は金儲けの種になってるけどね。ネガティヴな事言ってるのは多分日本だけだと思う。1年後にまた見返してみよう。この人どうなってるか。
AIに絶対できなくて人間にできるのは「責任を取る」ってことなので、今後はAIの失敗の責任を取るポストが創設されると思うのよね。なんか自治体とかで作る動きになってるみたいだし
自然言語でも画像でもそうだわ。publish した人間の責任で生成AIは免罪符にならない
https://events.sulekha.com/complete-list-of-expedi-support-contact-numbers-in-the-usa-representative-against_event-in_miami-fl_390952
バイブコーディングで「作ったものはオレの成果!そこで起きた事故はAIが悪い」ってやつ多いよな
grokにファクトチェックさせようとする(なお自分では一次ソース見ない)のが一番わかりやすいケースだと思う。あれはだめだよなぁ
今後は品質はテストで担保してコードの中身はブラックボックスになっていくんじゃないかな?
“生成AIに作らせたものを隅々まで自分で理解しない・説明できない (つまり責任を持てていない) ままそれを成果物として他人に見せるケースがあまりに多すぎるように感じている” 今後さらに増えていくんだろうなー
無意味に他人の時間を奪う成果物は有害だよね。当然、このブコメだって有害たり得るわけですけども。
同意。これがあるから生成AIに頼るのはなるべく局所的にしてる。
徐々に「よくわからんが動いてるからよし!」が許容される時代になっていき、たまにとんでもない事故が発生する世界になっていく可能性もあるかも
AI生成を精査せず提出するのは責任放棄。プログラマとしての最低限を欠いている。
これは、その通り。きちんと出自ぐらい把握しておいてほしい。いや、それすらもAIだとわからないか。
ファクトチェックの非対称コストはあるか、リンターや構成思想等でガチガチに固めておく必要もあるか
こういうやつプログラマー向いてないからやめた方がいいと思っている
その昔、なんだっけな、いかがでしたか?だったっけ、こんな流れあったよね、適当な検索結果流すやつ、naverまとめだったかな...?何も出てこないや、、
“ChatGPTがよくくっつけてくる🔄とか✅とかのアイコンを見ると、アンテナが立ってしまう”
検索エンジンで見つけたものをそのまま貼りました理解はしてません、みたいなものの生成AIバージョン。歴史は繰り返す。
人間が明確にボトルネックになるなら、人間を介在しない方向に進むのが資本主義というものなので、早晩このあたりの仕組みや常識は変わっていくんだろうね
同感。コーディングエージェントで生産したコードであっても、一行一行すべて説明できなきといけないし、ソフトウェアエンジニアはプロダクトに責任を持てる役割であらねばならない。
自分が一から書いたコードでも後から見返すと何やってるかわからなくなったりするのに、AIに書いてもらったコードなんていくら自分で確認しても後から見るとわからなくなってるよなと思う
「未来職安」だっけ>今後はAIの失敗の責任を取るポストが創設されると
責任をとることだけが代替不可能な人間の仕事になるんだろうね
どこまでAI活用するのかの目安かも。
“「あっている」でも「まちがっている」でもない、「そうだね」みたいな情報量ゼロのものは、それを読む方の人間にとって有害である。”
そのとおりだとしか言えん。学校のレポートならまだいいけど、仕事の成果物とかなら。
多分だがカジュアルに生成AI使いたい側は責任持ちたくなくて他人に丸投げしてそっちが持てって思ってるタイプで、筆者はおそらく権限移譲しても上流が責任持つと認識してレビューするタイプ。交わらないと思われ
これは本当にそうで、今までコピペしていたのをAIがやってくれるようになっただけで、その内容を理解する行程は必要なんだよね。生産性が何倍にもなったという人はこの部分をすっ飛ばしているのではという気がしてい
わかるけど無理なのでは。ホットペッパーのコピペくらいののりでAIがこういってた、って話を善意で言ってくるヒト居るし。https://dic.nicovideo.jp/a/%E3%83%9B%E3%83%83%E3%83%88%E3%83%9A%E3%83%83%E3%83%91%E3%83%BC%E3%82%92%E8%A6%8B%E3%81%9F
自分で書くなら、コードの中身を自信を持って言えて、トラブった時に修正すべき所がすぐ判る筈だが、AI任せだと動くが詳細不明になる、プロンプトに、各行にコードの目的をコメントで添えろ。と書けば良いのでは?
本当にこれ。あげくの果て「AIに書かせたから私は責任取らない」って表明までしてるのホント馬鹿か?って思う。
この通りで、かつその責任を必要十分に取れる人は少数派だと思っているので、生成AIには引き続き懐疑的
学生時代、建築設計をデザインや構造(耐久性)を考慮しつつウンウン唸って描いた。仮にAIが設計した建物に人々はどれだけ身体を預けることができるか気になる。(地震や水害、雪等各国各地域の条件が抜けると怖い)
アイコンとか箇条書きとか,あと「太字: …」とかも身構える。
AIに生成させてそれを使うことの責任を持たない人がいるのか、険しいな
レビューをAIがやってくれる時代はよ。
気持ちはすごいよくわかる。ただ「AIが作ったからそうなった」は、今後ある程度許容していくことになるんかもなとも…
移行期で発生する議論であろう、近い将来この人間の確認コストの費用対効果が合わなくなり、とりあえず動いてるからリリースしようぜ、になりそう それでも、正しい判断ができるように努力はし続けないといけない
こんな事をわざわざ言っていかなければならんのか。日本人の頭悪すぎるだろ。
ネットにはゴミが多すぎるので本に回帰してる
そもそもAIの対応範囲は単体テストまでだし、人間が作ったものであっても結合テストは十分するでしょう。そういう意味で言うと、今までと変わらないプロセスで実装が爆速ってだけだからAI叩きする必要は無いのでは。
それを言うなら自分が採用したオープンソースのOSやミドルウェアのバグにも責任を持てって話になって、そりゃ建前上そうなのだけど、実際自分が使ってるOSSのバグを自力で修正できる人がどれくらいいるのかって話で。
“生成AIを (成果物をつくるために) 使う権利があるのは、生成AIの生成物を必要に応じて「捨てる」ことができる者に限ると思う。”
わかりみ
コードを見たこともない他メンバーのコードやサードパーティ製ライブラリが自プロダクトに含まれているのは許容できて、AIが書いたコードが含まれるのが許容できないというのが良くわからない
僕はそうするしそうして欲しいけど、次の世代もそうあるべきとは思わない。
はい。