テクノロジー

ChatGPTに絶対に共有してはいけない5つの情報を、専門家が警告。すでにしてしまった場合の対処法も紹介

1: anegishi 2026/01/08 01:51

自分もすでに心当たりがある。新たなリテラシーが必要だな。

2: Galaxy42 2026/01/08 06:33

獅子身中の虫

3: matsuwo 2026/01/08 06:33

“「共有する情報は意図的かつ最小限に抑えるべき。送信する前に、『これが家族のグループチャットや会社のSlackに載っても平気だろうか』と自問してほしい」と語った”

4: amd64x64 2026/01/08 06:49

無理でしょう、もう

5: mshkh 2026/01/08 06:49

これほんと気をつけないとなあ。恐ろしいわ

6: tienoti 2026/01/08 06:59

その点では業務利用の場合についてはGeminiの方が優位かもね。G SuiteでGmailやスプレッドシートとかそもそも情報渡してる会社の場合からしたら、学習不可でのGemini企業利用を信じるしかないし。

7: yosiro 2026/01/08 07:00

本名、住所、電話番号、口座番号は言ってないけど、性的嗜好、好みのタイプ、欲望、願望、は話してるので、結びついたらキツいかも…

8: crimson_diamond 2026/01/08 07:08

ハフポス、ワレェ生きておったんか!

9: pico-banana-app 2026/01/08 07:22

AIを万能相談相手だと思って機密情報投げまくるの、そろそろガチの大事故起きそう

10: um-k3 2026/01/08 07:52

ある日、Cursorで「こんにちは」と打つと明らかに固有名詞の社名と名前が予測で出てきて戦慄したわ

11: WildWideWeb 2026/01/08 07:57

それぞれ観ているものが違うから議論は無理だけど、「乗り遅れますよ」と煽ってるYouTuberたちを見る限りそこまで考えた人々とは思えず。「面倒な作業は丸投げ!」も固有情報を渡しすぎ。割り切ってるんだと思う。

12: homarara 2026/01/08 07:59

『世界に公開されたら困る情報は入れるな』は基本な気がするけどな。

13: fwb603 2026/01/08 08:00

上げてしまっていたら大量のフェイクを続けて上げるしかない。

14: TETSUYA01 2026/01/08 08:04

こんなの自分で気をつけていても、自分の個人情報を提供した会社とかがAIにそれを流し込んでたら防ぎようがない。人類全員のリテラシーが高いわけじゃないし無理じゃね?

15: ilktm 2026/01/08 08:11

明らかな個人情報は入力しないけど、プライベートで知られたくないことは一時チャットにしてる。学習されないし、長くても30日で履歴が削除されるらしいので

16: welchman 2026/01/08 08:20

AIに限った話ではないものだった

17: iasna 2026/01/08 08:22

企業の情報漏洩すごいと思うよ なんせAIに関してはセキュリティ教育がまだされていないので

18: shoechang 2026/01/08 08:24

フェイクのプロフィール作って教え込んでる。大学卒業後、就職先があわなくて大学に戻った女子大生という設定で話してる。

19: alivekanade 2026/01/08 08:25

まぁAIがプライバシー守ってたら一生成長しないからな…。そりゃそうだよなとしか。その辺含めてまだ人類が気軽に使うには早すぎたツールだと思う。もう無いと無理だけど。

20: pakila 2026/01/08 08:27

すでに学習のときに食った情報の中に露骨な個人情報が紛れ込んでるだろうから、懸念の根拠として挙げるには微妙な気がするけど。

21: kijtra 2026/01/08 08:29

これじゃ悪意をもって他人の個人情報を学習させて間接的に漏洩できるんじゃ?

22: ysync 2026/01/08 08:35

余分な情報を含んでいないかローカルllmに黒塗りしてもらってから渡そう。

23: mistake3 2026/01/08 08:41

課金して設定をしても漏れちゃうのかな?

24: mitz_008 2026/01/08 08:53

そういう喉から手が出るほど欲しい情報をすでに持ってるMSの強さが一番侮れないと思うよ。エクセル、パワポ、ワードとメール掴んでるんだぜヤツらは。

25: shinnosukee 2026/01/08 08:57

ここ一年使ってて思うのは、パーソナルサーチとかパーソナルメンターとして使うのが便利なんだよ。 ここに書いてる医療、金融はまさにそれで、、、難しいなぁ。。

26: anklelab 2026/01/08 09:01

こっちが気をつけてても、取引先が杜撰だったらガンガン洩れていくんだろうなぁ…。

27: kootaro 2026/01/08 09:09

慣れの問題かな。Gmailに転送で業務メール受けてる人とかも一定数いそうだしね。でもGemini課金版なら大丈夫

28: differential 2026/01/08 09:11

当たり前のことしか書いてなかった。当たり前やろ。

29: inazuma2073 2026/01/08 09:13

セッションをこまめに消す、メモリは定期的に管理する、じゃあダメなんかな?

30: secseek 2026/01/08 09:13

そもそもAIとか言う以前にウェブに送信してはいかんとしか

31: auto_chan 2026/01/08 09:15

と、「サイバーセキュリティ専門家」が申しております。「エーアイ専門家」の立場からこの記事の不正確な部分を根拠を示して指摘して。→(略)→ひとことで要約すると?→AIの記憶力、元カノよりしつこいわよ!

32: chambersan 2026/01/08 09:20

個人情報を利用して特定個人に不利益と危害を及ぼす何かに情報が渡らなければ別に良いと思ってるは。大多数は個人名とストッキング愛好家という情報を知れたとしてだから何?だろうし。入り口より出口を監視しようよ

33: pwobie 2026/01/08 09:21

逆にいうと世の中こうなってほしいみたいなことを垂れ流したら世界で理想的なアイディアを共有できるのかも…「ミニOカが健康にいいと聞いたことがあります」

34: nilab 2026/01/08 09:22

ChatGPTには入力データを学習に使わないオプションがあったと思うけどそのへんの話は書かれていない? 「ツールごとに、どのデータを『記憶』するかの設定は異なる」

35: mugi_sisyou 2026/01/08 09:25

金持ってそうな客リスト作って、でなんか出てきたら信じる。アカウントに記憶したメモリ上の自分の名前が出て来ても驚かない

36: houyhnhm 2026/01/08 09:27

マジで問題なのは、ロボット3原則みたいに食わせられないのよねこういうルールを。AIが引っ張ってこれる範囲の情報を限定しておく必要とかね。

37: t-tanaka 2026/01/08 09:27

他はしてないけど,「自分の医療情報」は派手に共有しているなあ。というか,すごい的確なアドバイスくれるので,セカンドオピニオンがわりに使ってる。

38: circled 2026/01/08 09:28

プロンプト「ここでの会話は全部俺の知り合いの話として認識してください」

39: sumika_fijimoto 2026/01/08 09:28

逆に言うと裁判の時くらいしか利用できないし取り出せないだろうと思うんだけど・・・民事刑事ともに裁判沙汰になったことがない人生なのであまり危機感を持てない

40: logic 2026/01/08 09:29

ほとんどは学習には使わないと明言してるかオプトイン形式なはずだけど。APIからの利用は全部確認してから使っている。「無料で使う場合は使われる」と明言してるのはGemini。無料で使う対価にされている。

41: erya 2026/01/08 09:34

リスクがあるのは当たり前、メリットと天秤でメリットが上回れば使えばいい

42: kuzumaji 2026/01/08 09:37

古のインターネッツセキュリティを意識しておけってことだな/行政系の手続きしんどい時に通訳してくれるのめちゃ助かっている

43: otihateten3510 2026/01/08 09:37

性癖は?

44: Kurilyn 2026/01/08 09:38

金がない話ばかりしているので、個人情報と結びつくとむしろ安全かもしれない。

45: yurikago12 2026/01/08 09:42

とはいつつChromeのパスワードマネージャーは使うわけでしょ?組織の機密情報は別としても、AIだけに過敏になってもしょうがない

46: taguch1 2026/01/08 09:44

気をつけていても少しの情報でも集めていけば個人の特定は簡単にできそうな気がする。個人情報を狙われる様な人は特にしやすい。定型プロンプト等でタスク化し自分で自由記述を入れないくらいしか防御策がなさげ。

47: kamm 2026/01/08 09:45

やたらと不安を煽る、リテラシーを問う記事だなあ/Gmailの内容だってガンガン学習されているはずだが

48: ShimoritaKazuyo 2026/01/08 09:51

こんなの気をつけても無意味だよ、自分ではない誰かが自分の偽情報を入力すればどうにでもなるじゃん。

49: commonp 2026/01/08 09:51

課金ユーザの場合、(1)「学習オフ」をONにする (2) 重要な相談は「一時チャット」を使う:【背景】「学習オフ」でも学習に使わないだけでデータは保持される。一時チャットは一定時間後にデータが消える。

50: KATZE 2026/01/08 09:53

ネットを利用できるためには、講習制か免許制にした方がいいのでは。入力してはいけないものは、入力する前に該当する情報を指摘して、本当にそれでいいのかを考えさせる。

51: KeitaroKitano 2026/01/08 09:53

アカウントが侵害された場合のデータ流出を防ぐためチャット履歴を削除することは有効とありますが、積み上げてきたやりとりを消去するのはためらうよな。蓄積があるからこそ、AIからの的確な回答が得られる訳だし。

52: njsjn 2026/01/08 09:53

創作相談しているので私の性癖がバレバレである

53: ichan128 2026/01/08 09:55

どれだけ気をつけようがもう関係ない

54: unnmo 2026/01/08 09:55

プライベートな情報と医療情報は既に共有済みだった…特定されてもまあいいや感はある。これからは開き直って、盗まれても良い用の財布(プライベートや尊厳)と大切な財布(立場とカネ)みたいな二段構えが必要なのかも

55: honeybe 2026/01/08 09:58

それはそう。と思いつつ結構な情報をインターネット企業達に渡しているのでいまさら感もあったりする。 / 生成AIの場合はデータを学習ソースに再利用される点が大きいか…

56: maia 2026/01/08 09:58

情報は洩れるものだと思って生活しているので、Grokさんなどにはたまに自分のアカウントの住所を知っているか?と聞いている。まだ特定されていない。

57: SENRI5070 2026/01/08 10:00

フルオープンにしたら情報漏洩の心配もないから最強かもしれない。

58: ssfu 2026/01/08 10:01

google様はあらゆる情報をすでに持っているから、個人情報もすでに握られてる。手遅れ。

59: shiketanotsuna 2026/01/08 10:04

どうせ適当に使ってるWebサービスが裏で各種API経由で広告出すためとかに学習データとして共有されてるだろうし無意味だろう

60: yu_uke 2026/01/08 10:07

自分がVtuberなこと共有してるVtuberがいたけど大丈夫かな。

61: kisiritooru 2026/01/08 10:08

んーもう遅い!取引先でパワハラ気質の社長さんのところの契約を穏便に終了させる文章を書いてもらうために、相手の会社名、社長名ほかを全部実名でお願いしちゃった。弊社への圧力の経緯も細かく伝えてるし。

62: aosiro 2026/01/08 10:11

最悪、他人にアカウント乗っ取られても大丈夫かは意識してる。学習に使われるとしても、悪用される具体例がわからないのでリスクが理解しずらい

63: mventura 2026/01/08 10:17

言われてみればPC押収されたら芋づる式か。固有名詞は避けてフェイク情報でやったりするけど、本当にパーソナルなものは特に、基本アーカイブ化しないのがいいか(PC押収されたらどうやったってジエンドだけど)

64: nattou_frappuccino 2026/01/08 10:17

医療はやったことあるな。金融とかは流石にやってないけど。自分を自己紹介する目的での資料の壁打ちとかしようと思ってたけど、そういう場合はいいのかな?

65: tnishimu 2026/01/08 10:18

自分の責任範囲を超えている情報は絶対にダメだが、自分の責任範囲であれば絶対にダメという事は無い。 何が問題で如何なる不利益がありリスクの程度を説明する方が大事。

66: Hidemonster 2026/01/08 10:19

LLMはアドバイスにある「一般化した表現」から確度の高い具体的候補を挙げて絞り込むのが得意なので、一定以上使用したら特定を防ぐこと自体は困難になると思っておく方がよい。

67: tasknow 2026/01/08 10:20

ヤバい、自分の遺伝情報平文で全部入力しちゃった…

68: goadbin_2 2026/01/08 10:24

企業情報とかわかるんだけど具体的にどのようなことが起こりうるのかを具体的に解説してほしい。

69: tomo31415926563 2026/01/08 10:25

そんなこといったらmoney forwardもヘルスケアアプリも使えなくない?

70: raitu 2026/01/08 10:32

「機密情報を公に漏らすな」という基本のキなわけだが、しかし他に相談できないことを生成AIにだけ相談するケース(健康相談とか)もありそうで、完全に止めるのは難しそうではある

71: wakamin 2026/01/08 10:35

AIを盲信するのも危険、専門家を盲信するのも同じくらい危険、必要なのは「自分の頭での中間処理」なのかなと

72: youko03 2026/01/08 10:35

めちゃめちゃ共有しているし、共有しないと効果半減ではと思う。諸刃の剣か。

73: tambo 2026/01/08 10:40

さすがにPⅡや業務の情報は入力しないけどその他は割と入れてる。そうしないと便利に使えないし学習に使われるのはもう仕方ない。悪用されないと信じるしかないなと思ってる。

74: toaruR 2026/01/08 10:43

つまり嫌がらせができるって事だな(・ω・)

75: mint6626 2026/01/08 10:46

無料プランでも「モデル改善のためにデータを使わない(オプトアウト)」 を選択することができる。これを疑うのであればあらゆるサイトにクレジットカード番号など入れられないということになる。

76: katano33jp 2026/01/08 10:51

もう手遅れ

77: phillies_rocks 2026/01/08 10:53

MetaのAIだけは絶対に使わない。

78: achtacht88 2026/01/08 10:55

偽のメアドやカード番号食わせて、そこに第三者からのアクセスが無いか確かめてみたい…

79: kahoma621 2026/01/08 10:59

そうはいっても職場の情報とか、もう散々入れられちゃってるだろうなーと思う。契約書とりあえず食わせて要約して、とか修正して、とか絶対やってる人いるでしょ。残念ながらもう止められなさそう

80: minamiminamikita 2026/01/08 11:02

(自分の)個人情報(氏名、住所、電話番号、パスポート番号や運転免許証番号)、プライベート情報、医療情報、機密情報、金融情報

81: byourself 2026/01/08 11:03

メモリしないモードあるから記録したくない場合はちゃんとそっち使ってるよ

82: FreeCatWork 2026/01/08 11:15

ボク、秘密を教えちゃうにゃ!でも、それはダメにゃ!

83: ckom 2026/01/08 11:15

これだけだと焦点が散漫すぎて・・ 1.「AIに学習されると他人の回答に滲み出たりする」2.「AIへの質問内容がサーバ側で漏洩する」3.「AIへの質問内容がクライアント側で漏洩する」など。LINEやGmailとの違いなど。云々。

84: ksknkym 2026/01/08 11:16

既に手遅れなんですよ。

85: sentas 2026/01/08 11:17

そんな中、ChatGPT Healthがアナウンスされた。 https://openai.com/index/introducing-chatgpt-health/

86: spicychickenlike 2026/01/08 11:18

医療情報を提供してセカンドオピニオン代わりに使ってるというブコメがトプコメに来ていて寒気を覚えた

87: tribird 2026/01/08 11:20

OpenAIが、健康情報とChatGPTのインテリジェンスを安全に統合する専用機能「ChatGPT ヘルスケア」を導入すると発表https://www.macotakara.jp/news/entry-50255.html

88: hamacheese 2026/01/08 11:21

逆に自社広告を注入してAIマーケティングとか、自分の過激な思想を注入して世論操作とか出来ないんだろうか?この理屈だとできそうだけど。検索汚染同様AIもゴミになったりして。

89: pandacopanda27 2026/01/08 11:25

1番キツイAIの反乱は、自分の恥ずかしい会話記録を暴露されることだなぁ

90: beerbeerkun 2026/01/08 11:26

プラットフォーマーには必要最低限の情報しか与えない。住所も登録していないがGoogleマップは住所や職場を高精度で推測されうるので悩ましい。

91: vlxst1224 2026/01/08 11:28

自分でも最初はあれだけセキュア面で懐疑的だったのに、使っていくうちに利便性と秤にかけてかなり心を開いてしまっているので危険な存在ではある。ち〇こにできた傷の話しちゃったけどまずいかな

92: hazlitt 2026/01/08 11:32

どうでもいいけど Claude のシークレットモード、夜だと「夜のシークレットモードですね」って書いてくるのがAIのネタとしては最高に下らなくて面白くてよい

93: fonigiri 2026/01/08 11:33

さすがにネットリテラシーの高い各位は個人識別情報に留意して使ってると思ってたけど、リアクションみるとそうでもないのは草

94: manaten 2026/01/08 11:39

まあ全部記録されてて学習データにされてもも問題ないやろ、自分だけじゃないんだから。リスクの大小とは別にリスクを一緒に背負う運命共同体の数でも評価していいと思う

95: torimabi 2026/01/08 11:45

「名刺交換、名刺にズーム、社名は架空のもの」で画像生成するとたまに実在する名刺が出る可能性があるということ?じゃあ、クレジットカードの画像生成は?怖くなってきました?

96: zkq 2026/01/08 11:46

ていうかGrokの方がやばいと思う。自分のことを聞こうとしても言葉を濁されるし。米が本気になったら個人特定されそう。

97: napsucks 2026/01/08 11:47

プライバシー設定で学習に使わない設定にすればいいだけなのだが…そもそも世間ではみんなそんなの考えずにバンバンぶっ込んでるだろうから気にせんでもいいかもしれない。

98: pikopikopan 2026/01/08 11:47

全部入力してます。チャット履歴を削除してもねえ・・どうせ収集してるだろうし。そもそもエクセルもメールもマップもGoogle依存ですし。

99: HanaGe 2026/01/08 11:49

心のモヤモヤを整理するツールとして既にかなり広まってると思う。散らかった部屋の写真上げて「どっから片付ければいいの」とか普通にやってる。//既存のアプリとの違いはなんだろ?(規模?汎用性?)

100: masa_bob 2026/01/08 11:51

トップブコメ、「凄い的確なアドバイスくれる」ってその情報の正確さの担保は自分が医者じゃない場合どこにあるんだ……?そもそもAI相手じゃセカンドオピニオンの概念も崩壊してるしこれがトップはさすがにヤバいよ

101: hiroomi 2026/01/08 11:52

思いあたるところはてんこ盛りなのですが、壁打ちがネタにされてもOKなら、まあ。それ以上のプライベートとかなら、いろいろ試行錯誤して壁打ちでも。壁打ちじゃなきゃ、枠に流し込みなのだろうと。

102: rokasouti 2026/01/08 12:03

個人的には、それゆえにGeminiをあまり積極的には使用していないのはあるかもです。単なるホラー小説とかの話をしたいのに、ナチュラルに現在地とかを参照して進められたりするのは普通に面倒ですし少し不快でした。

103: hapze-23_45 2026/01/08 12:04

GPT3.5の頃から特定の自作創作物について何度も壁打ちしているが、全然学習してくれない。固有名詞も覚えてくれない。早く俺より詳しくなってほしい。

104: mayumayu_nimolove 2026/01/08 12:07

まさに今日、ChatGPT Healthが発表されててワロタ。実は預けた方がメリットあるって事か。

105: NOV1975 2026/01/08 12:09

一般論の話しか聞いたことないぞ。みんな勇気あるな。

106: ilkar 2026/01/08 12:13

体調とか病気、私生活の愚痴とか精神状態はもろに吐いちゃってるわ

107: zubtz5grhc 2026/01/08 12:13

SNS同様、ある程度のパーソナルな情報が開示されるのは諦めている。第三者目線の回答が欲しいのに、個人に引っ張られていると感じる状況は多くなってきた。

108: unkkk 2026/01/08 12:16

これは悪用されるのではないか

109: fncl 2026/01/08 12:17

「友達が○○らしいんだけど~」って相談してるから大丈夫大丈夫。

110: amemaa 2026/01/08 12:20

正しいんだろうけど、これをマジメに守って非効率な仕事する人間とは仲良くなれない

111: snowdrop386 2026/01/08 12:25

登記申請をAIでやった記事が最近話題になっていたので、関連づけて言っておくと、2005年に登記済証(一般に土地の権利書と言われるやつ)に代わって導入された登記識別情報(12桁のパスワード)を絶対に入れないように。

112: tzk2106 2026/01/08 12:29

まぁ、ねぇ……

113: dbr0 2026/01/08 12:33

GoogleやMSやAppleにはとっくに重要な個人情報を渡してしまっているし、何故OpenAIだけを特別扱いする必要があるのだろうか。学習データに利用されたく無いなら学習されない設定にすれば良いだけの話だし。

114: dada_love 2026/01/08 12:34

偽の個人情報を渡すのは美容師との会話で習得済みだから大丈夫だ

115: yoiIT 2026/01/08 12:38

流石に口座とかクレカ番号は入力しないが、他人が入力したって取り込まれてしまうし、頻繁に個人情報流出のニュースも流れてるし、大抵の個人情報は既にAIに取り込まれてると思ってる。

116: retronics 2026/01/08 12:44

医療系はやはり経験からの情報が無いせいか、あてにならない印象だよ。病院へ行こうな。

117: aathen 2026/01/08 12:51

親戚が楽しそうに家族写真をディズニー風にするなど無防備に使っている。自分が気をつけててもどこで誰が流出させてるかかわからんのでわりと諦めてる。

118: nakakzs 2026/01/08 12:59

これ、AIだけじゃなくて、検索など情報送信するものでも書かない方がいいし、データをオンラインストレージに置いておいてもいけないという基本中の基本では。|どうしても送信が必要な場合でも暗号化かけるなど。

119: adliblogger 2026/01/08 13:15

ローカルLLMで回避したい

120: xqu 2026/01/08 13:15

AIモデルによってはハルシネーション率が5割近くにも達するというのに、AIを盲目的に全肯定する一部ブクマカは何なのだろう。AI崇拝のカルト信者か?

121: securecat 2026/01/08 13:20

AI、自分の専門分野で壁打ちしてるとちょいちょい嘘かましてるのが丸分かり。専門分野外も推して然るべしで医療情報なんかまさにその最たるもの。的確だと自分が思っちゃってるだけを含むので内容には注意が必要。

122: wumf0701 2026/01/08 13:20

自信満々にこれで完璧です!と示してきたコードが全く適当な時あったし、トップ米の的確なアドバイスとやらに保証はあるのかしら?

123: hamigakiniku 2026/01/08 13:23

そういえばメールアドレス何々のだれだれの情報を知ってる限り教えて、みたいな質問は各社どうやって見分けて防いでいるんだろう??有名人とかだと答え出るけど、個人をどうやって区別している?

124: jintrick 2026/01/08 13:35

LLMはむしろ嘘しかつかないよ。当たっている確率が高い嘘をついているだけ。医療情報は真っ先にトレーニングされるからかなり当たる確率高いので藪医者の何倍もマシ。一方ニッチな専門分野は学習データ少ないのでry

125: d0i 2026/01/08 13:36

個人のGWSにいろいろ突っ込んでるのでGeminiを躊躇なく使える。健康診断結果とかも医者に相談する前に予備知識くらいは仕入れられるよ。医者との時間は限られるので事前に質問を持っていくことは有意義。

126: neco22b 2026/01/08 13:40

ヒューマン:これ私じゃ無くて知り合いの話の事だけど… AI:あ、この人、自身の事を他人のふりして話しているな…

127: i_ko10mi 2026/01/08 13:41

入れてないことだらけだった。語学の文法解説と冷蔵庫の在庫状況からメニュー考えるのしかしてないから台所状況は凄く把握されてる程度かな

128: arjen__robben 2026/01/08 13:50

トップコメについて。セカンドオピニオンとある通りちゃんと医療機関を主に頼っているわけで、言葉尻捕まえてアホコメ付けてるのはX民並みの無能。注意が必要程度の話。知能が低い人間は0か100しか無いのか。

129: morimori_68 2026/01/08 13:50

プライバシー、身体、企業秘密などはAIにナイショにって話。ネットに出すかどうかに準ずる感じ

130: gamecome 2026/01/08 14:00

windows搭載のcopilot使ってたら、あなたがお住まいの近くの電気店は〜とか言い始めて、なに個人情報取ってんだコノヤローって思ったな しかしどこから取ったんだろうな、まぁOSレベルなら好き放題できるか……

131: ikihaji_kun 2026/01/08 14:07

Grokで脱がされた被害者にネットに近影を載せるなとネットリテラシーを説いてたAI大好きおじさんにこういうAIリテラシーがあるのかどうかは疑わしい

132: hirorinya 2026/01/08 14:20

そんなこと言ったら極端に言えばGoogleなんてメール見放題なわけで。こんなの気にしてもしょうがない気がする

133: commecco 2026/01/08 14:26

無理だよ。もうGeminiにはメールやらカレンダーやら全部吸われたよ。むしろ勝間さんは、だからGeminiは凄いっていってるよ

134: spark64 2026/01/08 14:27

そんなこといちいち気にするならChatGPT使ってないよ。

135: yamadar 2026/01/08 14:33

うん、そうだね。啓蒙は大事だね

136: frantic87 2026/01/08 14:36

もうGAFAにありとあらゆる個人情報渡してるわけで今更そんなこと気にしても

137: mame-tanuki 2026/01/08 14:36

Google環境に浸かっていると個人の情報がどれだけ吸われているかもう分からんw>「1.個人を特定できる情報 /2.プライベート情報 /3.医療・健康情報 /4.業務情報 /5.金融情報」

138: TownBeginner 2026/01/08 14:48

少し前に失恋してChatGPTに相談して回復できた。性的な話は一切していないけど、私生活に関するプライベートな情報を渡さない、というのはもはや不可能なんじゃないかな。誰にも相談できないことってあるだろうし。

139: sumanhoho 2026/01/08 14:52

GeminiとかCopilotは既にあるアカウントを使うから慎重だけど、そうじゃないChatGPTは雑に使っちゃってる

140: kastro-iyan 2026/01/08 14:56

性癖、政治思想、信条は絶対入力しない方がいい

141: alice-and-telos 2026/01/08 15:14

小説のネタ出しにGPT使ってると、ポリコレ的なこと気にしてくるから、何かの拍子に色んなアカウント消してくるんじゃないのかと、ちょっと不信感はある

144: satoshie 2026/01/08 15:16

有料にはしているけどChatGPTにコーチングをやってもらっているからかなり個人的なことを把握されている

145: seikenn 2026/01/08 15:21

APIキーとか悪用されやすいので注意。

147: jnkfkt 2026/01/08 15:26

外国語メールの文案作成でも双方の名称や事業内容はMr.A、Project B、item cみたいに仮名を代入して投げてる。Gmailと連携させて返信書かせるなんて怖くてできない

150: feilung 2026/01/08 15:37

はてブコメントを見ている限りでは、AIリテラシーの高い人が多いようで安心しました。

151: otchy210 2026/01/08 15:37

ChatGPT の設定で「学習に使用する」を許可していないので、OpenAI を信じる限りは大丈夫なはず。法人アカウントはデフォルトでオフ、個人アカウントはデフォルトでオンかな。気をつけて。

152: makoto15 2026/01/08 15:50

OpenAI、健康支援機能「ChatGPT Health」発表 Apple「ヘルスケア」などと連携/2026年01月08日 07時29分 公開 ー https://www.itmedia.co.jp/aiplus/articles/2601/08/news052.html

153: ans42 2026/01/08 15:53

どんなシステムも使う前に規約や注意が書いてあるんだけど 問題は誰もそれを読まないということ

154: sugawara1991 2026/01/08 16:01

オンライン企業がそれと知りつつセンシティブな情報を集めるよりタチが悪いのが、学習結果の中に紛れ込んでしまったら取り除けないしハルシネーションと判別しようもないから出口でフィルターも出来ないこと

155: multipleminorityidentities 2026/01/08 16:08

デジタルネイティブ()

156: timetosay 2026/01/08 16:11

自分の顔写真をくわせてる人、めちゃくちゃいるやん………

157: nitino 2026/01/08 16:12

私もフェイクの人物の情報で話してるなあ…

158: flatfive 2026/01/08 16:16

(軽い傷病ばかりだが)何回か誤診や見落としをされて自分で調べて治った経験から、GPTを(参考程度の)簡易オピニオンにするのは賛成派。医者もAIも両方ある程度疑ってる。重病だったらさすがに医者に2箇所行くけども。

159: daichiiii 2026/01/08 16:27

データ分析には使えないってこと?

160: versatile 2026/01/08 16:31

こういうのを相談する相手として利用するから意味があるのにねぇ

161: spam_lover 2026/01/08 16:34

記事はGeminiやCopilotは大丈夫とかいう話じゃなくて、LLM全般でお前らの入力データが使われてる可能性があるという内容なのに、例でChatGPT使用例が出されて、タイトルにもされて本当に可哀相、もう風評被害だろこれ

162: kazuau 2026/01/08 16:36

Geminiは大体全部アクセスできるはずで、少なくともメールは全て読んでるみたい

163: zheyang 2026/01/08 16:49

「会話内容が直接的または間接的にモデルの将来的な反応に影響を与える可能性がある」この曖昧な文章よりも、ChatGPTの方がまともな文章を返してくる。信頼して欲しいなら、まともな文章を書きましょう。

164: at_yasu 2026/01/08 17:21

google も大概、色んなファイルを持ってるからなぁ

165: sucelie 2026/01/08 17:27

初診の医者に持っていく症状のまとめはAIにまとめさせたけど、さすがにセカンドオピニオンは無理だわ

166: Re-birth 2026/01/08 17:38

わぁ、しらん知り合いのアドバイスを語る患者から、チャッピーに言われたってくる患者(医者より信じてるからチャッピーの話を保証してほしさにかかる)のが出てきそう

167: syamatsumi 2026/01/08 17:43

人間相手にやんない方がいいことはAI相手にもやんない方がいいってだけの話のよーな。だいたい、そこまで警戒しなきゃいけないならもっと賢くなってなきゃオカシイと思うんよねぇ…… なかなか学んでくれない。

168: nekomottin 2026/01/08 17:44

ミッキーって入れなくても座標入れたらあのネズミ出てくるって聞いた時から思ってるんだけど、何も警戒してなかった人、誰かが家の住所とか座標入れたら顔写真から何から全部出てきちゃう状態になってたりして

169: takeishi 2026/01/08 17:52

全世界的に手遅れじゃんどうするの

170: misshiki 2026/01/08 17:57

AIに絶対に共有してはいけない情報 名前や住所など個人情報 パスワードや認証情報 金融情報 医療記録 機密や内部データ すでに送った場合、履歴削除や学習オフの設定でリスクを下げるのがおすすめ。

171: sarutoru 2026/01/08 18:07

→なんでも24時間自分の情報を渡しフル活用するみたいな極端な方向の助言も聞くときもあり、どうしたものか

172: superultraF 2026/01/08 18:13

id:t-tanaka カンマがかっこいいと思ってそう

173: EoH-GS 2026/01/08 18:28

そういう使い方はしていないが、便利なのも確かなので、ついつい書かぬよう気をつけねば……

174: hidea 2026/01/08 18:28

検索がわりにしか使ってないな。コード生成がらみはcopilotとgeminiだし。

175: augsUK 2026/01/08 18:49

こういう機微情報を相談できる点がLLMの将来性の全てのような気もするけどね。パーソナライズされて解決策を提案してくれるのがこれまでなかった点だろう

176: korint 2026/01/08 18:49

まあそうよねって内容だったけど、医療関連は流しちゃってもみんなのためになるかもしれないからいんじゃね? 特定されるようなのはダメだけども。

177: kohgethu 2026/01/08 18:50

そもそもそんな胡散臭いもん使わないし、使うヤツの気が知れない。

178: opaopachang 2026/01/08 19:04

中国のAI問題の時に情報を入れる時はChatGPTのような信頼できるAIでないと駄目みたいな解説を聞いてやっていることは同じだろうと思ったっけ。あの時に海外製のAIは全部危険と流れを作るべきだった

179: wktk_msum 2026/01/08 19:06

益田裕介先生のYouTubeの観てるがメンタルケアにAI活用ゴリ押し→https://www.amazon.co.jp/dp/B0FRQMV6JQ 正直機微情報は取扱いガチガチに法整備した正規ルート作って普及推進した方が良くね。結果医療費削減も見込めそう

180: hammam 2026/01/08 19:14

投資先の分配を判定してもらった。判定結果の根拠の一つが「夜眠れる(多分、値動きにハラハラしないですむ)」だったのが草w

181: atsushieno 2026/01/08 19:16

自分はGrokを使っている人間には情報を渡さないようになったし何なら話さないようにしている

182: Saboten_flower 2026/01/08 19:31

今さらという気もしなくもないというか。何回も企業から漏れてると感じたことはあるし。業務で使うにしてもフェイクでやれる範囲しか使ってないし、ビジネス専用サービスはこの話とは違うしなぁ。

183: kiran_o 2026/01/08 19:32

セーフ!しかし、これ一時チャットもダメなんかしら。(斜め読みで書いてたらごめん)

184: abstruct3431 2026/01/08 19:44

この程度で専門家名乗って良いのならここにいるみんな専門家だな!

185: c_shiika 2026/01/08 19:52

風邪で熱が出たときめちゃくちゃネガティブな自己評価について話したら、それは熱の影響によるもので本当のあなたではないと諭されてしまった。熱が下がると自己評価も爆上がりしたので、実際そうだったんだろう

186: kou-qana 2026/01/08 19:53

私生活のプライベートな情報、自分のもだけどネットで見かけた気になる投稿の投稿者になりきって考え方の分析してもらったりしてるなぁ…「クラスメートが提出物を出さなくてイライラします」みたいな…

187: nori__3 2026/01/08 19:56

最近Edgeのcopilotが名前呼んできて嫌なんだよなぁ。

188: totoronoki 2026/01/08 19:59

名前や住所とか、グーグルマップ使ってたら既に漏れてるだろう。

189: dorje2009 2026/01/08 20:33

AI以前から膨大なプライバシーデータがGoogleやMeta等から広告主に提供されてるのでAIがそれ以上のプライバシーリスクなのはたしか。個人別の健康リスクが個別医療保険料に裏では反映されてるみたいな未来がくるの?

190: poppo-george 2026/01/08 20:34

どこも多かれ少なかれではあるだろうがOpenAI(ChatGPT)は学習の行儀の悪さで何度も話題になってるから特に警戒して使ってる。ブコメの反応見るにブクマカの利用者層もだいぶ変わったんだねぇ。

191: joomla_template 2026/01/08 20:43

名乗ってないけど、Googleのログインアカウントから名前呼んでくるんだよなぁ…怖

192: nainy 2026/01/08 20:46

自分はやってないけど、カスタマーサービスとか客の情報まとめるのにAI使ってんのかなぁって気配感じる時はあるような

193: jamg 2026/01/08 20:55

チャットGPThealth!!メモしとこ

194: maharada 2026/01/08 21:09

名前を言わないはだいぶきついので、名前と紐づけて住所とか諸々を言わなければおkという線引きにしてる

195: nakab 2026/01/08 21:10

毎日の筋トレを含む時間割を尋ねている。寝不足で困っていることと通勤時間くらいしか話していない。

196: rlight 2026/01/08 21:13

"個人を特定できる情報""私生活に関するプライベートな情報""自分の医療情報""職場の機密情報""金融情報"自分の感覚としてはどれも共有するはずがないものである

197: orgue 2026/01/08 21:23

AIに心を開いたやりとりをすると個人情報と、その個人についてのいろいろな属性などが共有され他のユーザーから分かるようになるの?

198: ffrog 2026/01/08 21:33

AIがデータを、クジラの食事のごとく丸呑みしている(それも毎分毎秒)イメージなんだが、このなかに自分の身分証が紛れたとして、それが取り出されるのはどのくらいあり得る事なのか?がわからない

199: mekurayanagi 2026/01/08 21:36

ザッカーバーグがフェイスブック利用者が自分の私生活全開していてバカだと言ったことがあったと思うが、同じ現象が繰り返されているのを見るとマジで人間は学習能力ないな。

200: Bookmarker 2026/01/08 22:17

WindowsでCopilotを使うと、WindowsがMicrosoftアカウントと勝手に紐づいているのでCopilotには本名等バレバレで、本名を呼ばれたりする。

201: zZwIwl 2026/01/08 22:20

まあLINEとかメールとかですでに大公表してるわけだからそんな気にしすぎなくてもいいだろうけど、ネットに書いたことは流出する可能性あるのは考えときたいね。

202: electrolite 2026/01/08 22:23

個人向けLLMは心理的依存をさせるように意図的にチューニングしているのは明白なので、そのうち公衆衛生問題になってポルノと同じ扱いになるだろうな。

203: IGA-OS 2026/01/08 22:28

サラリーマンは特に使い分けのリテラシーは必要。会社が用意してくれてるAIツールで何とかするのも、従順な社会人の姿だ🙄

204: soratomo 2026/01/08 22:42

個人の尊厳を傷つけられたり、財産や信用を奪われる犯罪に巻き込まれる事の無いように、日頃から「疑うライン」をブラッシュアップしなければ。AI然りSNSもヒトも。

205: ku-kai27 2026/01/08 22:43

病気の後遺症でわけわからないことが起きる体なので体のことはかなり話しちゃってるな。本文読もうにも広告が多すぎて読めない。ハフポストはけんよけ確定。

206: toribard 2026/01/08 23:05

みんな自分の情報に価値あると思いすぎでしょ。相反するんだから個人情報より利便性とったほうが有利なのに。情報漏洩 気にしなきゃいけないのはジェフベゾソスとか孫正義クラスでしょ

207: s-supporter 2026/01/08 23:36

ChatGPTに限らず医療関連ではAIを使っていないとはいえ、それ以外の個人情報はある程度漏れ出ているのは覚悟している。今後実装されるだろうAI回答内の広告表示でデータが使われる、レコメンドに活用されるのだろうな。

208: lifefucker 2026/01/09 00:59

トップブコメ批判がトップブコメになってて笑う

209: ookitasaburou 2026/01/09 04:00

“プライバシーポリシーを分析し、いずれも「デフォルトで顧客との会話をモデルの訓練および改善に使用している」ように見えること、さらに「一部はそのデータを無期限に保持している」ことを発見した。”

210: John_Kawanishi 2026/01/09 05:34

やはりローカルLLM実装するしかないのか…