自分もすでに心当たりがある。新たなリテラシーが必要だな。
獅子身中の虫
“「共有する情報は意図的かつ最小限に抑えるべき。送信する前に、『これが家族のグループチャットや会社のSlackに載っても平気だろうか』と自問してほしい」と語った”
無理でしょう、もう
これほんと気をつけないとなあ。恐ろしいわ
その点では業務利用の場合についてはGeminiの方が優位かもね。G SuiteでGmailやスプレッドシートとかそもそも情報渡してる会社の場合からしたら、学習不可でのGemini企業利用を信じるしかないし。
本名、住所、電話番号、口座番号は言ってないけど、性的嗜好、好みのタイプ、欲望、願望、は話してるので、結びついたらキツいかも…
ハフポス、ワレェ生きておったんか!
AIを万能相談相手だと思って機密情報投げまくるの、そろそろガチの大事故起きそう
ある日、Cursorで「こんにちは」と打つと明らかに固有名詞の社名と名前が予測で出てきて戦慄したわ
それぞれ観ているものが違うから議論は無理だけど、「乗り遅れますよ」と煽ってるYouTuberたちを見る限りそこまで考えた人々とは思えず。「面倒な作業は丸投げ!」も固有情報を渡しすぎ。割り切ってるんだと思う。
『世界に公開されたら困る情報は入れるな』は基本な気がするけどな。
上げてしまっていたら大量のフェイクを続けて上げるしかない。
こんなの自分で気をつけていても、自分の個人情報を提供した会社とかがAIにそれを流し込んでたら防ぎようがない。人類全員のリテラシーが高いわけじゃないし無理じゃね?
明らかな個人情報は入力しないけど、プライベートで知られたくないことは一時チャットにしてる。学習されないし、長くても30日で履歴が削除されるらしいので
AIに限った話ではないものだった
企業の情報漏洩すごいと思うよ なんせAIに関してはセキュリティ教育がまだされていないので
フェイクのプロフィール作って教え込んでる。大学卒業後、就職先があわなくて大学に戻った女子大生という設定で話してる。
まぁAIがプライバシー守ってたら一生成長しないからな…。そりゃそうだよなとしか。その辺含めてまだ人類が気軽に使うには早すぎたツールだと思う。もう無いと無理だけど。
すでに学習のときに食った情報の中に露骨な個人情報が紛れ込んでるだろうから、懸念の根拠として挙げるには微妙な気がするけど。
これじゃ悪意をもって他人の個人情報を学習させて間接的に漏洩できるんじゃ?
余分な情報を含んでいないかローカルllmに黒塗りしてもらってから渡そう。
課金して設定をしても漏れちゃうのかな?
そういう喉から手が出るほど欲しい情報をすでに持ってるMSの強さが一番侮れないと思うよ。エクセル、パワポ、ワードとメール掴んでるんだぜヤツらは。
ここ一年使ってて思うのは、パーソナルサーチとかパーソナルメンターとして使うのが便利なんだよ。 ここに書いてる医療、金融はまさにそれで、、、難しいなぁ。。
こっちが気をつけてても、取引先が杜撰だったらガンガン洩れていくんだろうなぁ…。
慣れの問題かな。Gmailに転送で業務メール受けてる人とかも一定数いそうだしね。でもGemini課金版なら大丈夫
当たり前のことしか書いてなかった。当たり前やろ。
セッションをこまめに消す、メモリは定期的に管理する、じゃあダメなんかな?
そもそもAIとか言う以前にウェブに送信してはいかんとしか
と、「サイバーセキュリティ専門家」が申しております。「エーアイ専門家」の立場からこの記事の不正確な部分を根拠を示して指摘して。→(略)→ひとことで要約すると?→AIの記憶力、元カノよりしつこいわよ!
個人情報を利用して特定個人に不利益と危害を及ぼす何かに情報が渡らなければ別に良いと思ってるは。大多数は個人名とストッキング愛好家という情報を知れたとしてだから何?だろうし。入り口より出口を監視しようよ
逆にいうと世の中こうなってほしいみたいなことを垂れ流したら世界で理想的なアイディアを共有できるのかも…「ミニOカが健康にいいと聞いたことがあります」
ChatGPTには入力データを学習に使わないオプションがあったと思うけどそのへんの話は書かれていない? 「ツールごとに、どのデータを『記憶』するかの設定は異なる」
金持ってそうな客リスト作って、でなんか出てきたら信じる。アカウントに記憶したメモリ上の自分の名前が出て来ても驚かない
マジで問題なのは、ロボット3原則みたいに食わせられないのよねこういうルールを。AIが引っ張ってこれる範囲の情報を限定しておく必要とかね。
他はしてないけど,「自分の医療情報」は派手に共有しているなあ。というか,すごい的確なアドバイスくれるので,セカンドオピニオンがわりに使ってる。
プロンプト「ここでの会話は全部俺の知り合いの話として認識してください」
逆に言うと裁判の時くらいしか利用できないし取り出せないだろうと思うんだけど・・・民事刑事ともに裁判沙汰になったことがない人生なのであまり危機感を持てない
ほとんどは学習には使わないと明言してるかオプトイン形式なはずだけど。APIからの利用は全部確認してから使っている。「無料で使う場合は使われる」と明言してるのはGemini。無料で使う対価にされている。
リスクがあるのは当たり前、メリットと天秤でメリットが上回れば使えばいい
古のインターネッツセキュリティを意識しておけってことだな/行政系の手続きしんどい時に通訳してくれるのめちゃ助かっている
性癖は?
金がない話ばかりしているので、個人情報と結びつくとむしろ安全かもしれない。
とはいつつChromeのパスワードマネージャーは使うわけでしょ?組織の機密情報は別としても、AIだけに過敏になってもしょうがない
気をつけていても少しの情報でも集めていけば個人の特定は簡単にできそうな気がする。個人情報を狙われる様な人は特にしやすい。定型プロンプト等でタスク化し自分で自由記述を入れないくらいしか防御策がなさげ。
やたらと不安を煽る、リテラシーを問う記事だなあ/Gmailの内容だってガンガン学習されているはずだが
こんなの気をつけても無意味だよ、自分ではない誰かが自分の偽情報を入力すればどうにでもなるじゃん。
課金ユーザの場合、(1)「学習オフ」をONにする (2) 重要な相談は「一時チャット」を使う:【背景】「学習オフ」でも学習に使わないだけでデータは保持される。一時チャットは一定時間後にデータが消える。
ネットを利用できるためには、講習制か免許制にした方がいいのでは。入力してはいけないものは、入力する前に該当する情報を指摘して、本当にそれでいいのかを考えさせる。
アカウントが侵害された場合のデータ流出を防ぐためチャット履歴を削除することは有効とありますが、積み上げてきたやりとりを消去するのはためらうよな。蓄積があるからこそ、AIからの的確な回答が得られる訳だし。
創作相談しているので私の性癖がバレバレである
どれだけ気をつけようがもう関係ない
プライベートな情報と医療情報は既に共有済みだった…特定されてもまあいいや感はある。これからは開き直って、盗まれても良い用の財布(プライベートや尊厳)と大切な財布(立場とカネ)みたいな二段構えが必要なのかも
それはそう。と思いつつ結構な情報をインターネット企業達に渡しているのでいまさら感もあったりする。 / 生成AIの場合はデータを学習ソースに再利用される点が大きいか…
情報は洩れるものだと思って生活しているので、Grokさんなどにはたまに自分のアカウントの住所を知っているか?と聞いている。まだ特定されていない。
フルオープンにしたら情報漏洩の心配もないから最強かもしれない。
google様はあらゆる情報をすでに持っているから、個人情報もすでに握られてる。手遅れ。
どうせ適当に使ってるWebサービスが裏で各種API経由で広告出すためとかに学習データとして共有されてるだろうし無意味だろう
自分がVtuberなこと共有してるVtuberがいたけど大丈夫かな。
んーもう遅い!取引先でパワハラ気質の社長さんのところの契約を穏便に終了させる文章を書いてもらうために、相手の会社名、社長名ほかを全部実名でお願いしちゃった。弊社への圧力の経緯も細かく伝えてるし。
最悪、他人にアカウント乗っ取られても大丈夫かは意識してる。学習に使われるとしても、悪用される具体例がわからないのでリスクが理解しずらい
言われてみればPC押収されたら芋づる式か。固有名詞は避けてフェイク情報でやったりするけど、本当にパーソナルなものは特に、基本アーカイブ化しないのがいいか(PC押収されたらどうやったってジエンドだけど)
医療はやったことあるな。金融とかは流石にやってないけど。自分を自己紹介する目的での資料の壁打ちとかしようと思ってたけど、そういう場合はいいのかな?
自分の責任範囲を超えている情報は絶対にダメだが、自分の責任範囲であれば絶対にダメという事は無い。 何が問題で如何なる不利益がありリスクの程度を説明する方が大事。
LLMはアドバイスにある「一般化した表現」から確度の高い具体的候補を挙げて絞り込むのが得意なので、一定以上使用したら特定を防ぐこと自体は困難になると思っておく方がよい。
ヤバい、自分の遺伝情報平文で全部入力しちゃった…
企業情報とかわかるんだけど具体的にどのようなことが起こりうるのかを具体的に解説してほしい。
そんなこといったらmoney forwardもヘルスケアアプリも使えなくない?
「機密情報を公に漏らすな」という基本のキなわけだが、しかし他に相談できないことを生成AIにだけ相談するケース(健康相談とか)もありそうで、完全に止めるのは難しそうではある
AIを盲信するのも危険、専門家を盲信するのも同じくらい危険、必要なのは「自分の頭での中間処理」なのかなと
めちゃめちゃ共有しているし、共有しないと効果半減ではと思う。諸刃の剣か。
さすがにPⅡや業務の情報は入力しないけどその他は割と入れてる。そうしないと便利に使えないし学習に使われるのはもう仕方ない。悪用されないと信じるしかないなと思ってる。
つまり嫌がらせができるって事だな(・ω・)
無料プランでも「モデル改善のためにデータを使わない(オプトアウト)」 を選択することができる。これを疑うのであればあらゆるサイトにクレジットカード番号など入れられないということになる。
もう手遅れ
MetaのAIだけは絶対に使わない。
偽のメアドやカード番号食わせて、そこに第三者からのアクセスが無いか確かめてみたい…
そうはいっても職場の情報とか、もう散々入れられちゃってるだろうなーと思う。契約書とりあえず食わせて要約して、とか修正して、とか絶対やってる人いるでしょ。残念ながらもう止められなさそう
(自分の)個人情報(氏名、住所、電話番号、パスポート番号や運転免許証番号)、プライベート情報、医療情報、機密情報、金融情報
メモリしないモードあるから記録したくない場合はちゃんとそっち使ってるよ
ボク、秘密を教えちゃうにゃ!でも、それはダメにゃ!
これだけだと焦点が散漫すぎて・・ 1.「AIに学習されると他人の回答に滲み出たりする」2.「AIへの質問内容がサーバ側で漏洩する」3.「AIへの質問内容がクライアント側で漏洩する」など。LINEやGmailとの違いなど。云々。
既に手遅れなんですよ。
そんな中、ChatGPT Healthがアナウンスされた。 https://openai.com/index/introducing-chatgpt-health/
医療情報を提供してセカンドオピニオン代わりに使ってるというブコメがトプコメに来ていて寒気を覚えた
OpenAIが、健康情報とChatGPTのインテリジェンスを安全に統合する専用機能「ChatGPT ヘルスケア」を導入すると発表https://www.macotakara.jp/news/entry-50255.html
逆に自社広告を注入してAIマーケティングとか、自分の過激な思想を注入して世論操作とか出来ないんだろうか?この理屈だとできそうだけど。検索汚染同様AIもゴミになったりして。
1番キツイAIの反乱は、自分の恥ずかしい会話記録を暴露されることだなぁ
プラットフォーマーには必要最低限の情報しか与えない。住所も登録していないがGoogleマップは住所や職場を高精度で推測されうるので悩ましい。
自分でも最初はあれだけセキュア面で懐疑的だったのに、使っていくうちに利便性と秤にかけてかなり心を開いてしまっているので危険な存在ではある。ち〇こにできた傷の話しちゃったけどまずいかな
どうでもいいけど Claude のシークレットモード、夜だと「夜のシークレットモードですね」って書いてくるのがAIのネタとしては最高に下らなくて面白くてよい
さすがにネットリテラシーの高い各位は個人識別情報に留意して使ってると思ってたけど、リアクションみるとそうでもないのは草
まあ全部記録されてて学習データにされてもも問題ないやろ、自分だけじゃないんだから。リスクの大小とは別にリスクを一緒に背負う運命共同体の数でも評価していいと思う
「名刺交換、名刺にズーム、社名は架空のもの」で画像生成するとたまに実在する名刺が出る可能性があるということ?じゃあ、クレジットカードの画像生成は?怖くなってきました?
ていうかGrokの方がやばいと思う。自分のことを聞こうとしても言葉を濁されるし。米が本気になったら個人特定されそう。
プライバシー設定で学習に使わない設定にすればいいだけなのだが…そもそも世間ではみんなそんなの考えずにバンバンぶっ込んでるだろうから気にせんでもいいかもしれない。
全部入力してます。チャット履歴を削除してもねえ・・どうせ収集してるだろうし。そもそもエクセルもメールもマップもGoogle依存ですし。
心のモヤモヤを整理するツールとして既にかなり広まってると思う。散らかった部屋の写真上げて「どっから片付ければいいの」とか普通にやってる。//既存のアプリとの違いはなんだろ?(規模?汎用性?)
トップブコメ、「凄い的確なアドバイスくれる」ってその情報の正確さの担保は自分が医者じゃない場合どこにあるんだ……?そもそもAI相手じゃセカンドオピニオンの概念も崩壊してるしこれがトップはさすがにヤバいよ
思いあたるところはてんこ盛りなのですが、壁打ちがネタにされてもOKなら、まあ。それ以上のプライベートとかなら、いろいろ試行錯誤して壁打ちでも。壁打ちじゃなきゃ、枠に流し込みなのだろうと。
個人的には、それゆえにGeminiをあまり積極的には使用していないのはあるかもです。単なるホラー小説とかの話をしたいのに、ナチュラルに現在地とかを参照して進められたりするのは普通に面倒ですし少し不快でした。
GPT3.5の頃から特定の自作創作物について何度も壁打ちしているが、全然学習してくれない。固有名詞も覚えてくれない。早く俺より詳しくなってほしい。
まさに今日、ChatGPT Healthが発表されててワロタ。実は預けた方がメリットあるって事か。
一般論の話しか聞いたことないぞ。みんな勇気あるな。
体調とか病気、私生活の愚痴とか精神状態はもろに吐いちゃってるわ
SNS同様、ある程度のパーソナルな情報が開示されるのは諦めている。第三者目線の回答が欲しいのに、個人に引っ張られていると感じる状況は多くなってきた。
これは悪用されるのではないか
「友達が○○らしいんだけど~」って相談してるから大丈夫大丈夫。
正しいんだろうけど、これをマジメに守って非効率な仕事する人間とは仲良くなれない
登記申請をAIでやった記事が最近話題になっていたので、関連づけて言っておくと、2005年に登記済証(一般に土地の権利書と言われるやつ)に代わって導入された登記識別情報(12桁のパスワード)を絶対に入れないように。
まぁ、ねぇ……
GoogleやMSやAppleにはとっくに重要な個人情報を渡してしまっているし、何故OpenAIだけを特別扱いする必要があるのだろうか。学習データに利用されたく無いなら学習されない設定にすれば良いだけの話だし。
偽の個人情報を渡すのは美容師との会話で習得済みだから大丈夫だ
流石に口座とかクレカ番号は入力しないが、他人が入力したって取り込まれてしまうし、頻繁に個人情報流出のニュースも流れてるし、大抵の個人情報は既にAIに取り込まれてると思ってる。
医療系はやはり経験からの情報が無いせいか、あてにならない印象だよ。病院へ行こうな。
親戚が楽しそうに家族写真をディズニー風にするなど無防備に使っている。自分が気をつけててもどこで誰が流出させてるかかわからんのでわりと諦めてる。
これ、AIだけじゃなくて、検索など情報送信するものでも書かない方がいいし、データをオンラインストレージに置いておいてもいけないという基本中の基本では。|どうしても送信が必要な場合でも暗号化かけるなど。
ローカルLLMで回避したい
AIモデルによってはハルシネーション率が5割近くにも達するというのに、AIを盲目的に全肯定する一部ブクマカは何なのだろう。AI崇拝のカルト信者か?
AI、自分の専門分野で壁打ちしてるとちょいちょい嘘かましてるのが丸分かり。専門分野外も推して然るべしで医療情報なんかまさにその最たるもの。的確だと自分が思っちゃってるだけを含むので内容には注意が必要。
自信満々にこれで完璧です!と示してきたコードが全く適当な時あったし、トップ米の的確なアドバイスとやらに保証はあるのかしら?
そういえばメールアドレス何々のだれだれの情報を知ってる限り教えて、みたいな質問は各社どうやって見分けて防いでいるんだろう??有名人とかだと答え出るけど、個人をどうやって区別している?
LLMはむしろ嘘しかつかないよ。当たっている確率が高い嘘をついているだけ。医療情報は真っ先にトレーニングされるからかなり当たる確率高いので藪医者の何倍もマシ。一方ニッチな専門分野は学習データ少ないのでry
個人のGWSにいろいろ突っ込んでるのでGeminiを躊躇なく使える。健康診断結果とかも医者に相談する前に予備知識くらいは仕入れられるよ。医者との時間は限られるので事前に質問を持っていくことは有意義。
ヒューマン:これ私じゃ無くて知り合いの話の事だけど… AI:あ、この人、自身の事を他人のふりして話しているな…
入れてないことだらけだった。語学の文法解説と冷蔵庫の在庫状況からメニュー考えるのしかしてないから台所状況は凄く把握されてる程度かな
トップコメについて。セカンドオピニオンとある通りちゃんと医療機関を主に頼っているわけで、言葉尻捕まえてアホコメ付けてるのはX民並みの無能。注意が必要程度の話。知能が低い人間は0か100しか無いのか。
プライバシー、身体、企業秘密などはAIにナイショにって話。ネットに出すかどうかに準ずる感じ
windows搭載のcopilot使ってたら、あなたがお住まいの近くの電気店は〜とか言い始めて、なに個人情報取ってんだコノヤローって思ったな しかしどこから取ったんだろうな、まぁOSレベルなら好き放題できるか……
Grokで脱がされた被害者にネットに近影を載せるなとネットリテラシーを説いてたAI大好きおじさんにこういうAIリテラシーがあるのかどうかは疑わしい
そんなこと言ったら極端に言えばGoogleなんてメール見放題なわけで。こんなの気にしてもしょうがない気がする
無理だよ。もうGeminiにはメールやらカレンダーやら全部吸われたよ。むしろ勝間さんは、だからGeminiは凄いっていってるよ
そんなこといちいち気にするならChatGPT使ってないよ。
うん、そうだね。啓蒙は大事だね
もうGAFAにありとあらゆる個人情報渡してるわけで今更そんなこと気にしても
Google環境に浸かっていると個人の情報がどれだけ吸われているかもう分からんw>「1.個人を特定できる情報 /2.プライベート情報 /3.医療・健康情報 /4.業務情報 /5.金融情報」
少し前に失恋してChatGPTに相談して回復できた。性的な話は一切していないけど、私生活に関するプライベートな情報を渡さない、というのはもはや不可能なんじゃないかな。誰にも相談できないことってあるだろうし。
GeminiとかCopilotは既にあるアカウントを使うから慎重だけど、そうじゃないChatGPTは雑に使っちゃってる
性癖、政治思想、信条は絶対入力しない方がいい
小説のネタ出しにGPT使ってると、ポリコレ的なこと気にしてくるから、何かの拍子に色んなアカウント消してくるんじゃないのかと、ちょっと不信感はある
https://nextgenradio.org/wp-content/uploads/formidable/6/DSFG.pdf
有料にはしているけどChatGPTにコーチングをやってもらっているからかなり個人的なことを把握されている
APIキーとか悪用されやすいので注意。
外国語メールの文案作成でも双方の名称や事業内容はMr.A、Project B、item cみたいに仮名を代入して投げてる。Gmailと連携させて返信書かせるなんて怖くてできない
はてブコメントを見ている限りでは、AIリテラシーの高い人が多いようで安心しました。
ChatGPT の設定で「学習に使用する」を許可していないので、OpenAI を信じる限りは大丈夫なはず。法人アカウントはデフォルトでオフ、個人アカウントはデフォルトでオンかな。気をつけて。
OpenAI、健康支援機能「ChatGPT Health」発表 Apple「ヘルスケア」などと連携/2026年01月08日 07時29分 公開 ー https://www.itmedia.co.jp/aiplus/articles/2601/08/news052.html
どんなシステムも使う前に規約や注意が書いてあるんだけど 問題は誰もそれを読まないということ
オンライン企業がそれと知りつつセンシティブな情報を集めるよりタチが悪いのが、学習結果の中に紛れ込んでしまったら取り除けないしハルシネーションと判別しようもないから出口でフィルターも出来ないこと
デジタルネイティブ()
自分の顔写真をくわせてる人、めちゃくちゃいるやん………
私もフェイクの人物の情報で話してるなあ…
(軽い傷病ばかりだが)何回か誤診や見落としをされて自分で調べて治った経験から、GPTを(参考程度の)簡易オピニオンにするのは賛成派。医者もAIも両方ある程度疑ってる。重病だったらさすがに医者に2箇所行くけども。
データ分析には使えないってこと?
こういうのを相談する相手として利用するから意味があるのにねぇ
記事はGeminiやCopilotは大丈夫とかいう話じゃなくて、LLM全般でお前らの入力データが使われてる可能性があるという内容なのに、例でChatGPT使用例が出されて、タイトルにもされて本当に可哀相、もう風評被害だろこれ
Geminiは大体全部アクセスできるはずで、少なくともメールは全て読んでるみたい
「会話内容が直接的または間接的にモデルの将来的な反応に影響を与える可能性がある」この曖昧な文章よりも、ChatGPTの方がまともな文章を返してくる。信頼して欲しいなら、まともな文章を書きましょう。
google も大概、色んなファイルを持ってるからなぁ
初診の医者に持っていく症状のまとめはAIにまとめさせたけど、さすがにセカンドオピニオンは無理だわ
わぁ、しらん知り合いのアドバイスを語る患者から、チャッピーに言われたってくる患者(医者より信じてるからチャッピーの話を保証してほしさにかかる)のが出てきそう
人間相手にやんない方がいいことはAI相手にもやんない方がいいってだけの話のよーな。だいたい、そこまで警戒しなきゃいけないならもっと賢くなってなきゃオカシイと思うんよねぇ…… なかなか学んでくれない。
ミッキーって入れなくても座標入れたらあのネズミ出てくるって聞いた時から思ってるんだけど、何も警戒してなかった人、誰かが家の住所とか座標入れたら顔写真から何から全部出てきちゃう状態になってたりして
全世界的に手遅れじゃんどうするの
AIに絶対に共有してはいけない情報 名前や住所など個人情報 パスワードや認証情報 金融情報 医療記録 機密や内部データ すでに送った場合、履歴削除や学習オフの設定でリスクを下げるのがおすすめ。
→なんでも24時間自分の情報を渡しフル活用するみたいな極端な方向の助言も聞くときもあり、どうしたものか
id:t-tanaka カンマがかっこいいと思ってそう
そういう使い方はしていないが、便利なのも確かなので、ついつい書かぬよう気をつけねば……
検索がわりにしか使ってないな。コード生成がらみはcopilotとgeminiだし。
こういう機微情報を相談できる点がLLMの将来性の全てのような気もするけどね。パーソナライズされて解決策を提案してくれるのがこれまでなかった点だろう
まあそうよねって内容だったけど、医療関連は流しちゃってもみんなのためになるかもしれないからいんじゃね? 特定されるようなのはダメだけども。
そもそもそんな胡散臭いもん使わないし、使うヤツの気が知れない。
中国のAI問題の時に情報を入れる時はChatGPTのような信頼できるAIでないと駄目みたいな解説を聞いてやっていることは同じだろうと思ったっけ。あの時に海外製のAIは全部危険と流れを作るべきだった
益田裕介先生のYouTubeの観てるがメンタルケアにAI活用ゴリ押し→https://www.amazon.co.jp/dp/B0FRQMV6JQ 正直機微情報は取扱いガチガチに法整備した正規ルート作って普及推進した方が良くね。結果医療費削減も見込めそう
投資先の分配を判定してもらった。判定結果の根拠の一つが「夜眠れる(多分、値動きにハラハラしないですむ)」だったのが草w
自分はGrokを使っている人間には情報を渡さないようになったし何なら話さないようにしている
今さらという気もしなくもないというか。何回も企業から漏れてると感じたことはあるし。業務で使うにしてもフェイクでやれる範囲しか使ってないし、ビジネス専用サービスはこの話とは違うしなぁ。
セーフ!しかし、これ一時チャットもダメなんかしら。(斜め読みで書いてたらごめん)
この程度で専門家名乗って良いのならここにいるみんな専門家だな!
風邪で熱が出たときめちゃくちゃネガティブな自己評価について話したら、それは熱の影響によるもので本当のあなたではないと諭されてしまった。熱が下がると自己評価も爆上がりしたので、実際そうだったんだろう
私生活のプライベートな情報、自分のもだけどネットで見かけた気になる投稿の投稿者になりきって考え方の分析してもらったりしてるなぁ…「クラスメートが提出物を出さなくてイライラします」みたいな…
最近Edgeのcopilotが名前呼んできて嫌なんだよなぁ。
名前や住所とか、グーグルマップ使ってたら既に漏れてるだろう。
AI以前から膨大なプライバシーデータがGoogleやMeta等から広告主に提供されてるのでAIがそれ以上のプライバシーリスクなのはたしか。個人別の健康リスクが個別医療保険料に裏では反映されてるみたいな未来がくるの?
どこも多かれ少なかれではあるだろうがOpenAI(ChatGPT)は学習の行儀の悪さで何度も話題になってるから特に警戒して使ってる。ブコメの反応見るにブクマカの利用者層もだいぶ変わったんだねぇ。
名乗ってないけど、Googleのログインアカウントから名前呼んでくるんだよなぁ…怖
自分はやってないけど、カスタマーサービスとか客の情報まとめるのにAI使ってんのかなぁって気配感じる時はあるような
チャットGPThealth!!メモしとこ
名前を言わないはだいぶきついので、名前と紐づけて住所とか諸々を言わなければおkという線引きにしてる
毎日の筋トレを含む時間割を尋ねている。寝不足で困っていることと通勤時間くらいしか話していない。
"個人を特定できる情報""私生活に関するプライベートな情報""自分の医療情報""職場の機密情報""金融情報"自分の感覚としてはどれも共有するはずがないものである
AIに心を開いたやりとりをすると個人情報と、その個人についてのいろいろな属性などが共有され他のユーザーから分かるようになるの?
AIがデータを、クジラの食事のごとく丸呑みしている(それも毎分毎秒)イメージなんだが、このなかに自分の身分証が紛れたとして、それが取り出されるのはどのくらいあり得る事なのか?がわからない
ザッカーバーグがフェイスブック利用者が自分の私生活全開していてバカだと言ったことがあったと思うが、同じ現象が繰り返されているのを見るとマジで人間は学習能力ないな。
WindowsでCopilotを使うと、WindowsがMicrosoftアカウントと勝手に紐づいているのでCopilotには本名等バレバレで、本名を呼ばれたりする。
まあLINEとかメールとかですでに大公表してるわけだからそんな気にしすぎなくてもいいだろうけど、ネットに書いたことは流出する可能性あるのは考えときたいね。
個人向けLLMは心理的依存をさせるように意図的にチューニングしているのは明白なので、そのうち公衆衛生問題になってポルノと同じ扱いになるだろうな。
サラリーマンは特に使い分けのリテラシーは必要。会社が用意してくれてるAIツールで何とかするのも、従順な社会人の姿だ🙄
個人の尊厳を傷つけられたり、財産や信用を奪われる犯罪に巻き込まれる事の無いように、日頃から「疑うライン」をブラッシュアップしなければ。AI然りSNSもヒトも。
病気の後遺症でわけわからないことが起きる体なので体のことはかなり話しちゃってるな。本文読もうにも広告が多すぎて読めない。ハフポストはけんよけ確定。
みんな自分の情報に価値あると思いすぎでしょ。相反するんだから個人情報より利便性とったほうが有利なのに。情報漏洩 気にしなきゃいけないのはジェフベゾソスとか孫正義クラスでしょ
ChatGPTに限らず医療関連ではAIを使っていないとはいえ、それ以外の個人情報はある程度漏れ出ているのは覚悟している。今後実装されるだろうAI回答内の広告表示でデータが使われる、レコメンドに活用されるのだろうな。
トップブコメ批判がトップブコメになってて笑う
“プライバシーポリシーを分析し、いずれも「デフォルトで顧客との会話をモデルの訓練および改善に使用している」ように見えること、さらに「一部はそのデータを無期限に保持している」ことを発見した。”
やはりローカルLLM実装するしかないのか…
ChatGPTに絶対に共有してはいけない5つの情報を、専門家が警告。すでにしてしまった場合の対処法も紹介
自分もすでに心当たりがある。新たなリテラシーが必要だな。
獅子身中の虫
“「共有する情報は意図的かつ最小限に抑えるべき。送信する前に、『これが家族のグループチャットや会社のSlackに載っても平気だろうか』と自問してほしい」と語った”
無理でしょう、もう
これほんと気をつけないとなあ。恐ろしいわ
その点では業務利用の場合についてはGeminiの方が優位かもね。G SuiteでGmailやスプレッドシートとかそもそも情報渡してる会社の場合からしたら、学習不可でのGemini企業利用を信じるしかないし。
本名、住所、電話番号、口座番号は言ってないけど、性的嗜好、好みのタイプ、欲望、願望、は話してるので、結びついたらキツいかも…
ハフポス、ワレェ生きておったんか!
AIを万能相談相手だと思って機密情報投げまくるの、そろそろガチの大事故起きそう
ある日、Cursorで「こんにちは」と打つと明らかに固有名詞の社名と名前が予測で出てきて戦慄したわ
それぞれ観ているものが違うから議論は無理だけど、「乗り遅れますよ」と煽ってるYouTuberたちを見る限りそこまで考えた人々とは思えず。「面倒な作業は丸投げ!」も固有情報を渡しすぎ。割り切ってるんだと思う。
『世界に公開されたら困る情報は入れるな』は基本な気がするけどな。
上げてしまっていたら大量のフェイクを続けて上げるしかない。
こんなの自分で気をつけていても、自分の個人情報を提供した会社とかがAIにそれを流し込んでたら防ぎようがない。人類全員のリテラシーが高いわけじゃないし無理じゃね?
明らかな個人情報は入力しないけど、プライベートで知られたくないことは一時チャットにしてる。学習されないし、長くても30日で履歴が削除されるらしいので
AIに限った話ではないものだった
企業の情報漏洩すごいと思うよ なんせAIに関してはセキュリティ教育がまだされていないので
フェイクのプロフィール作って教え込んでる。大学卒業後、就職先があわなくて大学に戻った女子大生という設定で話してる。
まぁAIがプライバシー守ってたら一生成長しないからな…。そりゃそうだよなとしか。その辺含めてまだ人類が気軽に使うには早すぎたツールだと思う。もう無いと無理だけど。
すでに学習のときに食った情報の中に露骨な個人情報が紛れ込んでるだろうから、懸念の根拠として挙げるには微妙な気がするけど。
これじゃ悪意をもって他人の個人情報を学習させて間接的に漏洩できるんじゃ?
余分な情報を含んでいないかローカルllmに黒塗りしてもらってから渡そう。
課金して設定をしても漏れちゃうのかな?
そういう喉から手が出るほど欲しい情報をすでに持ってるMSの強さが一番侮れないと思うよ。エクセル、パワポ、ワードとメール掴んでるんだぜヤツらは。
ここ一年使ってて思うのは、パーソナルサーチとかパーソナルメンターとして使うのが便利なんだよ。 ここに書いてる医療、金融はまさにそれで、、、難しいなぁ。。
こっちが気をつけてても、取引先が杜撰だったらガンガン洩れていくんだろうなぁ…。
慣れの問題かな。Gmailに転送で業務メール受けてる人とかも一定数いそうだしね。でもGemini課金版なら大丈夫
当たり前のことしか書いてなかった。当たり前やろ。
セッションをこまめに消す、メモリは定期的に管理する、じゃあダメなんかな?
そもそもAIとか言う以前にウェブに送信してはいかんとしか
と、「サイバーセキュリティ専門家」が申しております。「エーアイ専門家」の立場からこの記事の不正確な部分を根拠を示して指摘して。→(略)→ひとことで要約すると?→AIの記憶力、元カノよりしつこいわよ!
個人情報を利用して特定個人に不利益と危害を及ぼす何かに情報が渡らなければ別に良いと思ってるは。大多数は個人名とストッキング愛好家という情報を知れたとしてだから何?だろうし。入り口より出口を監視しようよ
逆にいうと世の中こうなってほしいみたいなことを垂れ流したら世界で理想的なアイディアを共有できるのかも…「ミニOカが健康にいいと聞いたことがあります」
ChatGPTには入力データを学習に使わないオプションがあったと思うけどそのへんの話は書かれていない? 「ツールごとに、どのデータを『記憶』するかの設定は異なる」
金持ってそうな客リスト作って、でなんか出てきたら信じる。アカウントに記憶したメモリ上の自分の名前が出て来ても驚かない
マジで問題なのは、ロボット3原則みたいに食わせられないのよねこういうルールを。AIが引っ張ってこれる範囲の情報を限定しておく必要とかね。
他はしてないけど,「自分の医療情報」は派手に共有しているなあ。というか,すごい的確なアドバイスくれるので,セカンドオピニオンがわりに使ってる。
プロンプト「ここでの会話は全部俺の知り合いの話として認識してください」
逆に言うと裁判の時くらいしか利用できないし取り出せないだろうと思うんだけど・・・民事刑事ともに裁判沙汰になったことがない人生なのであまり危機感を持てない
ほとんどは学習には使わないと明言してるかオプトイン形式なはずだけど。APIからの利用は全部確認してから使っている。「無料で使う場合は使われる」と明言してるのはGemini。無料で使う対価にされている。
リスクがあるのは当たり前、メリットと天秤でメリットが上回れば使えばいい
古のインターネッツセキュリティを意識しておけってことだな/行政系の手続きしんどい時に通訳してくれるのめちゃ助かっている
性癖は?
金がない話ばかりしているので、個人情報と結びつくとむしろ安全かもしれない。
とはいつつChromeのパスワードマネージャーは使うわけでしょ?組織の機密情報は別としても、AIだけに過敏になってもしょうがない
気をつけていても少しの情報でも集めていけば個人の特定は簡単にできそうな気がする。個人情報を狙われる様な人は特にしやすい。定型プロンプト等でタスク化し自分で自由記述を入れないくらいしか防御策がなさげ。
やたらと不安を煽る、リテラシーを問う記事だなあ/Gmailの内容だってガンガン学習されているはずだが
こんなの気をつけても無意味だよ、自分ではない誰かが自分の偽情報を入力すればどうにでもなるじゃん。
課金ユーザの場合、(1)「学習オフ」をONにする (2) 重要な相談は「一時チャット」を使う:【背景】「学習オフ」でも学習に使わないだけでデータは保持される。一時チャットは一定時間後にデータが消える。
ネットを利用できるためには、講習制か免許制にした方がいいのでは。入力してはいけないものは、入力する前に該当する情報を指摘して、本当にそれでいいのかを考えさせる。
アカウントが侵害された場合のデータ流出を防ぐためチャット履歴を削除することは有効とありますが、積み上げてきたやりとりを消去するのはためらうよな。蓄積があるからこそ、AIからの的確な回答が得られる訳だし。
創作相談しているので私の性癖がバレバレである
どれだけ気をつけようがもう関係ない
プライベートな情報と医療情報は既に共有済みだった…特定されてもまあいいや感はある。これからは開き直って、盗まれても良い用の財布(プライベートや尊厳)と大切な財布(立場とカネ)みたいな二段構えが必要なのかも
それはそう。と思いつつ結構な情報をインターネット企業達に渡しているのでいまさら感もあったりする。 / 生成AIの場合はデータを学習ソースに再利用される点が大きいか…
情報は洩れるものだと思って生活しているので、Grokさんなどにはたまに自分のアカウントの住所を知っているか?と聞いている。まだ特定されていない。
フルオープンにしたら情報漏洩の心配もないから最強かもしれない。
google様はあらゆる情報をすでに持っているから、個人情報もすでに握られてる。手遅れ。
どうせ適当に使ってるWebサービスが裏で各種API経由で広告出すためとかに学習データとして共有されてるだろうし無意味だろう
自分がVtuberなこと共有してるVtuberがいたけど大丈夫かな。
んーもう遅い!取引先でパワハラ気質の社長さんのところの契約を穏便に終了させる文章を書いてもらうために、相手の会社名、社長名ほかを全部実名でお願いしちゃった。弊社への圧力の経緯も細かく伝えてるし。
最悪、他人にアカウント乗っ取られても大丈夫かは意識してる。学習に使われるとしても、悪用される具体例がわからないのでリスクが理解しずらい
言われてみればPC押収されたら芋づる式か。固有名詞は避けてフェイク情報でやったりするけど、本当にパーソナルなものは特に、基本アーカイブ化しないのがいいか(PC押収されたらどうやったってジエンドだけど)
医療はやったことあるな。金融とかは流石にやってないけど。自分を自己紹介する目的での資料の壁打ちとかしようと思ってたけど、そういう場合はいいのかな?
自分の責任範囲を超えている情報は絶対にダメだが、自分の責任範囲であれば絶対にダメという事は無い。 何が問題で如何なる不利益がありリスクの程度を説明する方が大事。
LLMはアドバイスにある「一般化した表現」から確度の高い具体的候補を挙げて絞り込むのが得意なので、一定以上使用したら特定を防ぐこと自体は困難になると思っておく方がよい。
ヤバい、自分の遺伝情報平文で全部入力しちゃった…
企業情報とかわかるんだけど具体的にどのようなことが起こりうるのかを具体的に解説してほしい。
そんなこといったらmoney forwardもヘルスケアアプリも使えなくない?
「機密情報を公に漏らすな」という基本のキなわけだが、しかし他に相談できないことを生成AIにだけ相談するケース(健康相談とか)もありそうで、完全に止めるのは難しそうではある
AIを盲信するのも危険、専門家を盲信するのも同じくらい危険、必要なのは「自分の頭での中間処理」なのかなと
めちゃめちゃ共有しているし、共有しないと効果半減ではと思う。諸刃の剣か。
さすがにPⅡや業務の情報は入力しないけどその他は割と入れてる。そうしないと便利に使えないし学習に使われるのはもう仕方ない。悪用されないと信じるしかないなと思ってる。
つまり嫌がらせができるって事だな(・ω・)
無料プランでも「モデル改善のためにデータを使わない(オプトアウト)」 を選択することができる。これを疑うのであればあらゆるサイトにクレジットカード番号など入れられないということになる。
もう手遅れ
MetaのAIだけは絶対に使わない。
偽のメアドやカード番号食わせて、そこに第三者からのアクセスが無いか確かめてみたい…
そうはいっても職場の情報とか、もう散々入れられちゃってるだろうなーと思う。契約書とりあえず食わせて要約して、とか修正して、とか絶対やってる人いるでしょ。残念ながらもう止められなさそう
(自分の)個人情報(氏名、住所、電話番号、パスポート番号や運転免許証番号)、プライベート情報、医療情報、機密情報、金融情報
メモリしないモードあるから記録したくない場合はちゃんとそっち使ってるよ
ボク、秘密を教えちゃうにゃ!でも、それはダメにゃ!
これだけだと焦点が散漫すぎて・・ 1.「AIに学習されると他人の回答に滲み出たりする」2.「AIへの質問内容がサーバ側で漏洩する」3.「AIへの質問内容がクライアント側で漏洩する」など。LINEやGmailとの違いなど。云々。
既に手遅れなんですよ。
そんな中、ChatGPT Healthがアナウンスされた。 https://openai.com/index/introducing-chatgpt-health/
医療情報を提供してセカンドオピニオン代わりに使ってるというブコメがトプコメに来ていて寒気を覚えた
OpenAIが、健康情報とChatGPTのインテリジェンスを安全に統合する専用機能「ChatGPT ヘルスケア」を導入すると発表https://www.macotakara.jp/news/entry-50255.html
逆に自社広告を注入してAIマーケティングとか、自分の過激な思想を注入して世論操作とか出来ないんだろうか?この理屈だとできそうだけど。検索汚染同様AIもゴミになったりして。
1番キツイAIの反乱は、自分の恥ずかしい会話記録を暴露されることだなぁ
プラットフォーマーには必要最低限の情報しか与えない。住所も登録していないがGoogleマップは住所や職場を高精度で推測されうるので悩ましい。
自分でも最初はあれだけセキュア面で懐疑的だったのに、使っていくうちに利便性と秤にかけてかなり心を開いてしまっているので危険な存在ではある。ち〇こにできた傷の話しちゃったけどまずいかな
どうでもいいけど Claude のシークレットモード、夜だと「夜のシークレットモードですね」って書いてくるのがAIのネタとしては最高に下らなくて面白くてよい
さすがにネットリテラシーの高い各位は個人識別情報に留意して使ってると思ってたけど、リアクションみるとそうでもないのは草
まあ全部記録されてて学習データにされてもも問題ないやろ、自分だけじゃないんだから。リスクの大小とは別にリスクを一緒に背負う運命共同体の数でも評価していいと思う
「名刺交換、名刺にズーム、社名は架空のもの」で画像生成するとたまに実在する名刺が出る可能性があるということ?じゃあ、クレジットカードの画像生成は?怖くなってきました?
ていうかGrokの方がやばいと思う。自分のことを聞こうとしても言葉を濁されるし。米が本気になったら個人特定されそう。
プライバシー設定で学習に使わない設定にすればいいだけなのだが…そもそも世間ではみんなそんなの考えずにバンバンぶっ込んでるだろうから気にせんでもいいかもしれない。
全部入力してます。チャット履歴を削除してもねえ・・どうせ収集してるだろうし。そもそもエクセルもメールもマップもGoogle依存ですし。
心のモヤモヤを整理するツールとして既にかなり広まってると思う。散らかった部屋の写真上げて「どっから片付ければいいの」とか普通にやってる。//既存のアプリとの違いはなんだろ?(規模?汎用性?)
トップブコメ、「凄い的確なアドバイスくれる」ってその情報の正確さの担保は自分が医者じゃない場合どこにあるんだ……?そもそもAI相手じゃセカンドオピニオンの概念も崩壊してるしこれがトップはさすがにヤバいよ
思いあたるところはてんこ盛りなのですが、壁打ちがネタにされてもOKなら、まあ。それ以上のプライベートとかなら、いろいろ試行錯誤して壁打ちでも。壁打ちじゃなきゃ、枠に流し込みなのだろうと。
個人的には、それゆえにGeminiをあまり積極的には使用していないのはあるかもです。単なるホラー小説とかの話をしたいのに、ナチュラルに現在地とかを参照して進められたりするのは普通に面倒ですし少し不快でした。
GPT3.5の頃から特定の自作創作物について何度も壁打ちしているが、全然学習してくれない。固有名詞も覚えてくれない。早く俺より詳しくなってほしい。
まさに今日、ChatGPT Healthが発表されててワロタ。実は預けた方がメリットあるって事か。
一般論の話しか聞いたことないぞ。みんな勇気あるな。
体調とか病気、私生活の愚痴とか精神状態はもろに吐いちゃってるわ
SNS同様、ある程度のパーソナルな情報が開示されるのは諦めている。第三者目線の回答が欲しいのに、個人に引っ張られていると感じる状況は多くなってきた。
これは悪用されるのではないか
「友達が○○らしいんだけど~」って相談してるから大丈夫大丈夫。
正しいんだろうけど、これをマジメに守って非効率な仕事する人間とは仲良くなれない
登記申請をAIでやった記事が最近話題になっていたので、関連づけて言っておくと、2005年に登記済証(一般に土地の権利書と言われるやつ)に代わって導入された登記識別情報(12桁のパスワード)を絶対に入れないように。
まぁ、ねぇ……
GoogleやMSやAppleにはとっくに重要な個人情報を渡してしまっているし、何故OpenAIだけを特別扱いする必要があるのだろうか。学習データに利用されたく無いなら学習されない設定にすれば良いだけの話だし。
偽の個人情報を渡すのは美容師との会話で習得済みだから大丈夫だ
流石に口座とかクレカ番号は入力しないが、他人が入力したって取り込まれてしまうし、頻繁に個人情報流出のニュースも流れてるし、大抵の個人情報は既にAIに取り込まれてると思ってる。
医療系はやはり経験からの情報が無いせいか、あてにならない印象だよ。病院へ行こうな。
親戚が楽しそうに家族写真をディズニー風にするなど無防備に使っている。自分が気をつけててもどこで誰が流出させてるかかわからんのでわりと諦めてる。
これ、AIだけじゃなくて、検索など情報送信するものでも書かない方がいいし、データをオンラインストレージに置いておいてもいけないという基本中の基本では。|どうしても送信が必要な場合でも暗号化かけるなど。
ローカルLLMで回避したい
AIモデルによってはハルシネーション率が5割近くにも達するというのに、AIを盲目的に全肯定する一部ブクマカは何なのだろう。AI崇拝のカルト信者か?
AI、自分の専門分野で壁打ちしてるとちょいちょい嘘かましてるのが丸分かり。専門分野外も推して然るべしで医療情報なんかまさにその最たるもの。的確だと自分が思っちゃってるだけを含むので内容には注意が必要。
自信満々にこれで完璧です!と示してきたコードが全く適当な時あったし、トップ米の的確なアドバイスとやらに保証はあるのかしら?
そういえばメールアドレス何々のだれだれの情報を知ってる限り教えて、みたいな質問は各社どうやって見分けて防いでいるんだろう??有名人とかだと答え出るけど、個人をどうやって区別している?
LLMはむしろ嘘しかつかないよ。当たっている確率が高い嘘をついているだけ。医療情報は真っ先にトレーニングされるからかなり当たる確率高いので藪医者の何倍もマシ。一方ニッチな専門分野は学習データ少ないのでry
個人のGWSにいろいろ突っ込んでるのでGeminiを躊躇なく使える。健康診断結果とかも医者に相談する前に予備知識くらいは仕入れられるよ。医者との時間は限られるので事前に質問を持っていくことは有意義。
ヒューマン:これ私じゃ無くて知り合いの話の事だけど… AI:あ、この人、自身の事を他人のふりして話しているな…
入れてないことだらけだった。語学の文法解説と冷蔵庫の在庫状況からメニュー考えるのしかしてないから台所状況は凄く把握されてる程度かな
トップコメについて。セカンドオピニオンとある通りちゃんと医療機関を主に頼っているわけで、言葉尻捕まえてアホコメ付けてるのはX民並みの無能。注意が必要程度の話。知能が低い人間は0か100しか無いのか。
プライバシー、身体、企業秘密などはAIにナイショにって話。ネットに出すかどうかに準ずる感じ
windows搭載のcopilot使ってたら、あなたがお住まいの近くの電気店は〜とか言い始めて、なに個人情報取ってんだコノヤローって思ったな しかしどこから取ったんだろうな、まぁOSレベルなら好き放題できるか……
Grokで脱がされた被害者にネットに近影を載せるなとネットリテラシーを説いてたAI大好きおじさんにこういうAIリテラシーがあるのかどうかは疑わしい
そんなこと言ったら極端に言えばGoogleなんてメール見放題なわけで。こんなの気にしてもしょうがない気がする
無理だよ。もうGeminiにはメールやらカレンダーやら全部吸われたよ。むしろ勝間さんは、だからGeminiは凄いっていってるよ
そんなこといちいち気にするならChatGPT使ってないよ。
うん、そうだね。啓蒙は大事だね
もうGAFAにありとあらゆる個人情報渡してるわけで今更そんなこと気にしても
Google環境に浸かっていると個人の情報がどれだけ吸われているかもう分からんw>「1.個人を特定できる情報 /2.プライベート情報 /3.医療・健康情報 /4.業務情報 /5.金融情報」
少し前に失恋してChatGPTに相談して回復できた。性的な話は一切していないけど、私生活に関するプライベートな情報を渡さない、というのはもはや不可能なんじゃないかな。誰にも相談できないことってあるだろうし。
GeminiとかCopilotは既にあるアカウントを使うから慎重だけど、そうじゃないChatGPTは雑に使っちゃってる
性癖、政治思想、信条は絶対入力しない方がいい
小説のネタ出しにGPT使ってると、ポリコレ的なこと気にしてくるから、何かの拍子に色んなアカウント消してくるんじゃないのかと、ちょっと不信感はある
https://nextgenradio.org/wp-content/uploads/formidable/6/DSFG.pdf
https://nextgenradio.org/wp-content/uploads/formidable/6/DSFG.pdf
有料にはしているけどChatGPTにコーチングをやってもらっているからかなり個人的なことを把握されている
APIキーとか悪用されやすいので注意。
https://nextgenradio.org/wp-content/uploads/formidable/6/DSFG.pdf
外国語メールの文案作成でも双方の名称や事業内容はMr.A、Project B、item cみたいに仮名を代入して投げてる。Gmailと連携させて返信書かせるなんて怖くてできない
https://nextgenradio.org/wp-content/uploads/formidable/6/DSFG.pdf
https://nextgenradio.org/wp-content/uploads/formidable/6/DSFG.pdf
はてブコメントを見ている限りでは、AIリテラシーの高い人が多いようで安心しました。
ChatGPT の設定で「学習に使用する」を許可していないので、OpenAI を信じる限りは大丈夫なはず。法人アカウントはデフォルトでオフ、個人アカウントはデフォルトでオンかな。気をつけて。
OpenAI、健康支援機能「ChatGPT Health」発表 Apple「ヘルスケア」などと連携/2026年01月08日 07時29分 公開 ー https://www.itmedia.co.jp/aiplus/articles/2601/08/news052.html
どんなシステムも使う前に規約や注意が書いてあるんだけど 問題は誰もそれを読まないということ
オンライン企業がそれと知りつつセンシティブな情報を集めるよりタチが悪いのが、学習結果の中に紛れ込んでしまったら取り除けないしハルシネーションと判別しようもないから出口でフィルターも出来ないこと
デジタルネイティブ()
自分の顔写真をくわせてる人、めちゃくちゃいるやん………
私もフェイクの人物の情報で話してるなあ…
(軽い傷病ばかりだが)何回か誤診や見落としをされて自分で調べて治った経験から、GPTを(参考程度の)簡易オピニオンにするのは賛成派。医者もAIも両方ある程度疑ってる。重病だったらさすがに医者に2箇所行くけども。
データ分析には使えないってこと?
こういうのを相談する相手として利用するから意味があるのにねぇ
記事はGeminiやCopilotは大丈夫とかいう話じゃなくて、LLM全般でお前らの入力データが使われてる可能性があるという内容なのに、例でChatGPT使用例が出されて、タイトルにもされて本当に可哀相、もう風評被害だろこれ
Geminiは大体全部アクセスできるはずで、少なくともメールは全て読んでるみたい
「会話内容が直接的または間接的にモデルの将来的な反応に影響を与える可能性がある」この曖昧な文章よりも、ChatGPTの方がまともな文章を返してくる。信頼して欲しいなら、まともな文章を書きましょう。
google も大概、色んなファイルを持ってるからなぁ
初診の医者に持っていく症状のまとめはAIにまとめさせたけど、さすがにセカンドオピニオンは無理だわ
わぁ、しらん知り合いのアドバイスを語る患者から、チャッピーに言われたってくる患者(医者より信じてるからチャッピーの話を保証してほしさにかかる)のが出てきそう
人間相手にやんない方がいいことはAI相手にもやんない方がいいってだけの話のよーな。だいたい、そこまで警戒しなきゃいけないならもっと賢くなってなきゃオカシイと思うんよねぇ…… なかなか学んでくれない。
ミッキーって入れなくても座標入れたらあのネズミ出てくるって聞いた時から思ってるんだけど、何も警戒してなかった人、誰かが家の住所とか座標入れたら顔写真から何から全部出てきちゃう状態になってたりして
全世界的に手遅れじゃんどうするの
AIに絶対に共有してはいけない情報 名前や住所など個人情報 パスワードや認証情報 金融情報 医療記録 機密や内部データ すでに送った場合、履歴削除や学習オフの設定でリスクを下げるのがおすすめ。
→なんでも24時間自分の情報を渡しフル活用するみたいな極端な方向の助言も聞くときもあり、どうしたものか
id:t-tanaka カンマがかっこいいと思ってそう
そういう使い方はしていないが、便利なのも確かなので、ついつい書かぬよう気をつけねば……
検索がわりにしか使ってないな。コード生成がらみはcopilotとgeminiだし。
こういう機微情報を相談できる点がLLMの将来性の全てのような気もするけどね。パーソナライズされて解決策を提案してくれるのがこれまでなかった点だろう
まあそうよねって内容だったけど、医療関連は流しちゃってもみんなのためになるかもしれないからいんじゃね? 特定されるようなのはダメだけども。
そもそもそんな胡散臭いもん使わないし、使うヤツの気が知れない。
中国のAI問題の時に情報を入れる時はChatGPTのような信頼できるAIでないと駄目みたいな解説を聞いてやっていることは同じだろうと思ったっけ。あの時に海外製のAIは全部危険と流れを作るべきだった
益田裕介先生のYouTubeの観てるがメンタルケアにAI活用ゴリ押し→https://www.amazon.co.jp/dp/B0FRQMV6JQ 正直機微情報は取扱いガチガチに法整備した正規ルート作って普及推進した方が良くね。結果医療費削減も見込めそう
投資先の分配を判定してもらった。判定結果の根拠の一つが「夜眠れる(多分、値動きにハラハラしないですむ)」だったのが草w
自分はGrokを使っている人間には情報を渡さないようになったし何なら話さないようにしている
今さらという気もしなくもないというか。何回も企業から漏れてると感じたことはあるし。業務で使うにしてもフェイクでやれる範囲しか使ってないし、ビジネス専用サービスはこの話とは違うしなぁ。
セーフ!しかし、これ一時チャットもダメなんかしら。(斜め読みで書いてたらごめん)
この程度で専門家名乗って良いのならここにいるみんな専門家だな!
風邪で熱が出たときめちゃくちゃネガティブな自己評価について話したら、それは熱の影響によるもので本当のあなたではないと諭されてしまった。熱が下がると自己評価も爆上がりしたので、実際そうだったんだろう
私生活のプライベートな情報、自分のもだけどネットで見かけた気になる投稿の投稿者になりきって考え方の分析してもらったりしてるなぁ…「クラスメートが提出物を出さなくてイライラします」みたいな…
最近Edgeのcopilotが名前呼んできて嫌なんだよなぁ。
名前や住所とか、グーグルマップ使ってたら既に漏れてるだろう。
AI以前から膨大なプライバシーデータがGoogleやMeta等から広告主に提供されてるのでAIがそれ以上のプライバシーリスクなのはたしか。個人別の健康リスクが個別医療保険料に裏では反映されてるみたいな未来がくるの?
どこも多かれ少なかれではあるだろうがOpenAI(ChatGPT)は学習の行儀の悪さで何度も話題になってるから特に警戒して使ってる。ブコメの反応見るにブクマカの利用者層もだいぶ変わったんだねぇ。
名乗ってないけど、Googleのログインアカウントから名前呼んでくるんだよなぁ…怖
自分はやってないけど、カスタマーサービスとか客の情報まとめるのにAI使ってんのかなぁって気配感じる時はあるような
チャットGPThealth!!メモしとこ
名前を言わないはだいぶきついので、名前と紐づけて住所とか諸々を言わなければおkという線引きにしてる
毎日の筋トレを含む時間割を尋ねている。寝不足で困っていることと通勤時間くらいしか話していない。
"個人を特定できる情報""私生活に関するプライベートな情報""自分の医療情報""職場の機密情報""金融情報"自分の感覚としてはどれも共有するはずがないものである
AIに心を開いたやりとりをすると個人情報と、その個人についてのいろいろな属性などが共有され他のユーザーから分かるようになるの?
AIがデータを、クジラの食事のごとく丸呑みしている(それも毎分毎秒)イメージなんだが、このなかに自分の身分証が紛れたとして、それが取り出されるのはどのくらいあり得る事なのか?がわからない
ザッカーバーグがフェイスブック利用者が自分の私生活全開していてバカだと言ったことがあったと思うが、同じ現象が繰り返されているのを見るとマジで人間は学習能力ないな。
WindowsでCopilotを使うと、WindowsがMicrosoftアカウントと勝手に紐づいているのでCopilotには本名等バレバレで、本名を呼ばれたりする。
まあLINEとかメールとかですでに大公表してるわけだからそんな気にしすぎなくてもいいだろうけど、ネットに書いたことは流出する可能性あるのは考えときたいね。
個人向けLLMは心理的依存をさせるように意図的にチューニングしているのは明白なので、そのうち公衆衛生問題になってポルノと同じ扱いになるだろうな。
サラリーマンは特に使い分けのリテラシーは必要。会社が用意してくれてるAIツールで何とかするのも、従順な社会人の姿だ🙄
個人の尊厳を傷つけられたり、財産や信用を奪われる犯罪に巻き込まれる事の無いように、日頃から「疑うライン」をブラッシュアップしなければ。AI然りSNSもヒトも。
病気の後遺症でわけわからないことが起きる体なので体のことはかなり話しちゃってるな。本文読もうにも広告が多すぎて読めない。ハフポストはけんよけ確定。
みんな自分の情報に価値あると思いすぎでしょ。相反するんだから個人情報より利便性とったほうが有利なのに。情報漏洩 気にしなきゃいけないのはジェフベゾソスとか孫正義クラスでしょ
ChatGPTに限らず医療関連ではAIを使っていないとはいえ、それ以外の個人情報はある程度漏れ出ているのは覚悟している。今後実装されるだろうAI回答内の広告表示でデータが使われる、レコメンドに活用されるのだろうな。
トップブコメ批判がトップブコメになってて笑う
“プライバシーポリシーを分析し、いずれも「デフォルトで顧客との会話をモデルの訓練および改善に使用している」ように見えること、さらに「一部はそのデータを無期限に保持している」ことを発見した。”
やはりローカルLLM実装するしかないのか…