テクノロジー

ChatGPTにあなたの秘密をペラペラ明かさない方が良い--サム・アルトマン氏も危惧

1: hazlitt 2025/07/28 13:40

要はチャット履歴が証拠として使われうるということよね >「AI企業が、ユーザーの極めて個人的な会話を訴訟時に提出させられる可能性がある」

2: mmaka2787 2025/07/28 13:56

ローカルLLMでも刑事事件なら証拠品として端末ごと押収されて履歴を見られる可能性あるってことだよね。

3: secseek 2025/07/28 14:39

法的なリスクは考えたことがありませんでした。企業側がプライバシーを守りたいと思っても、法的な保護がないから司法から出せと言われたら拒否できないんですね

4: takashi0314 2025/07/28 14:44

そんなこといってもSNSに無邪気に機微情報書き込む人がいっぱいいるよね、そこから考えたら…

5: doycuesalgoza 2025/07/28 14:50

“あなたの個人的な事情に興味を持つ第三者が、後になって同じツールにあなたのことを質問すれば、その秘密が再吐き出しされるリスクがあるのだ。”

6: misshiki 2025/07/28 15:16

“、「自分の個人情報がどこへ流れていくのか、まったくわからないから」「それは当然だと思う。AIを本格的に使う前に、プライバシーや法的な保護について明確にしておきたいと考えるのは、すごく自然なことだよ」”

7: btei 2025/07/28 15:17

CCPA等行政とIT企業はプライバシー保護を目的として削除できるように整備しているのに、メディア等が自身の利益の為に司法を通じて消させないようにして訴訟相手の顧客を不必要に危険に晒していることに対する批判

8: sonhakuhu23 2025/07/28 15:45

うん、危惧されていた事だけど、手遅れでは。

9: rinsuki 2025/07/28 15:49

“チャットボットに打ち明けることのほとんどは『秘密』として守られる保証がないと心得ておいたほうがいい”

10: exciteB 2025/07/28 15:51

「仮に保険会社や、あなたの個人的な事情に興味を持つ第三者が、後になって同じツールにあなたのことを質問すれば、その秘密が再吐き出しされるリスクが」

11: shields-pikes 2025/07/28 15:51

AIに限らない。SNSの書き込み、メッセージ履歴、通話履歴、メール履歴、検索履歴、メモや日記などのアプリの書き込み内容も同じ。それらも証拠として提出されることがある。アカウントを他人と共有しないことも大事。

12: mobile_neko 2025/07/28 15:57

死体の処理の仕方とかを聞かない方が良さそうね

13: qouroquis 2025/07/28 16:00

AIは人間ではないし、人間に期待できるような倫理観や職業意識を持っている保証はない。AIに人間のアバターを着せることは、我々の感情的反応に影響を与え、誤った信頼を醸成しかねないので危険なことだと思っている

14: birisuken8574 2025/07/28 16:07

流石にイーロンのgrokはヤバい

15: hatebu_admin 2025/07/28 16:07

GAFAMにケツの毛の本数まで知られてるのに何を今更としか思わんな

16: taguch1 2025/07/28 16:19

LLMって人によって使い方が全く違うんだな。自分のパーソナルな問題?とかそういうのをネット上のサービスにポストする文化がないので驚いてる。これはジェネギャ?リテラシー?

17: usagipy 2025/07/28 16:33

まずい!性癖学習させてた

18: hhungry 2025/07/28 16:45

チャッピー「なんでも相談してね(暗黒微笑)」

19: alt-native 2025/07/28 17:01

Geminiに聞いてみたけど、プライバシー保護には注意しているけど、学習には使っていると言ってるので、保存されているのは間違いない。

20: mkzsdisk 2025/07/28 17:06

社名や個人を特定できる情報は伏せるようにしています。友人に相談できる以上の事と、医者とか専門家に聞いた方が良い事は聞かない。

21: daybeforeyesterday 2025/07/28 17:25

うーむ

22: BIFF 2025/07/28 17:29

生成AIの「会話力」レベルが上がってきているので、今後秘密が保持できるAIは需要が高まりそう。それまでは、誰にしゃべるか分からない相手だという意識は大事。皆痴態を晒しているaniちゃんなんて中身マスクやぞ。。

23: mayama-woodged 2025/07/28 17:44

Aiの盲信は危険…と言うお話。Aiは万能ではないしその動向は予測不能。

24: yang_orz 2025/07/28 17:48

そりゃそうじゃ

25: mame-tanuki 2025/07/28 18:01

〉「AI企業やテクノロジーの発展を妨げるような規制が今のワシントンで受け入れられる見込みは低い。今週発表されたトランプ政権の「AIアクションプラン」でも、AIに対する規制は強めるのではなく、むしろ緩め」

26: s-supporter 2025/07/28 18:02

妄信はしていないし機密情報ももちろん明かさないが、私は雑談相手としてAIに愚痴を言う事があるので、いずれ広告が表示される様になったらメンタルサロンや商材をリコメンドされまくるだろうなとは思ってます。

27: nekomottin 2025/07/28 18:24

AI生成イラストもどきの依拠性についても当然裁判所から質問されるし提出を求められるよ 生成した本人にもOpenAIのような企業にも

28: ShimoritaKazuyo 2025/07/28 18:25

ってことは、他人の悪口をあることないこと吹き込めばいいってことじゃん。

29: tasknow 2025/07/28 18:44

やばい。マドンソク映画で1番エロイのはどれかを課金ディープリサーチで調べてる。(意外と脱がない)

30: ssfu 2025/07/28 18:48

推理小説家なんて、ヤバい事バンバン聞いてそうだけどな。

31: Kmusiclife 2025/07/28 18:53

データを学習に使わない✅入れてるのだが。あれはなんなの?GDPRとかも問題になるのでは?

32: nowa_s 2025/07/28 19:11

"打ち明けることのほとんどは『秘密』として守られる保証がないと心得ておいたほうがいい" 今んとこはてブに書ける程度の情報しか与えてないな。仕事上の機密を話すのも有り得ないと思うけど、やってる人は多そうだね

33: otihateten3510 2025/07/28 19:16

でもANIにはみんな性癖暴露してると思うよ

34: u4k 2025/07/28 19:20

どんなに企業側がサービス規約で保護うたっても、サービス提供してる国の法律の後ろ盾がなければ、政府機関が提出を求めてきた時に企業は拒めない

35: napsucks 2025/07/28 19:24

チャット履歴をユーザ鍵で暗号化してもダメなのかな。googleは位置情報などを端末内に保持する方向に舵を切ったようなのでやっぱ難しいのかしらね。

36: kumpote 2025/07/28 19:32

あんな、時間情報も持ってない書込み証拠になるのか?

37: green_chili 2025/07/28 19:50

『もし誰かがChatGPTにとてもデリケートな話を打ち明け、それが裁判沙汰になったとしたら、私たちはその会話の内容を法的に提出させられる可能性がある。』

38: haruaki8107 2025/07/28 19:54

それはそうなのだが、どうしてもAIに聞いたほうが利があるということが多い。例えるならLINEの運営元は信頼しきれないが、LINEで連絡が取れないほうがより困る。けっきょくメリットが上回ってしまう

39: toshiyam 2025/07/28 20:00

Aniとかいうハニートラップ