你不应该告诉 ChatGPT 的五件事

来源:华尔街日报 作者:Nicole Nguyen

我在过去几年里从 OpenAI 的 ChatGPT 身上学到了很多,而这个聊天机器人也从我身上学到了不少。

这个人工智能通过我们多次对话记住了很多小细节:它知道我喜欢吃鸡蛋,知道我有一个靠吃奶入睡的宝宝,也知道我因为背痛需要调整锻炼方式。

它甚至记住了更多我在这里不打算重复的私人信息。


无论你用的是哪一个聊天机器人,越分享,它就越能帮上忙。有些人会上传血液化验单让 AI 分析,工程师则贴上尚未公开的代码段寻求调试建议。也有一些人工智能研究者认为我们应更谨慎对待这些拟人化工具,不是所有信息都适合分享,比如你的社会安全号码或公司的专有数据。

AI 公司渴望通过数据来训练模型,但它们自己也不希望我们分享机密。“请不要在对话中分享任何敏感信息。”OpenAI 提醒用户。谷歌也告诫 Gemini 用户:“不要输入保密信息或任何你不希望审核员看到的数据。”

人工智能研究者指出,如果你和聊天机器人聊了皮疹或理财失误,这些信息可能被用于训练未来的 AI,也可能在数据泄露中暴露。以下是你应该避免输入的信息类型,以及更私密使用 AI 的方法。


这些内容要保密

聊天机器人听起来像人,很多人就不由自主地开始“袒露心声”。但正如斯坦福大学以人为本人工智能研究院的学者詹妮弗·金所说:“你一旦输入内容,就不再拥有它了。”

2023 年 3 月,ChatGPT 出现了一个漏洞,导致一些用户能看到其他人最初输入的内容。OpenAI 事后修复了问题。但此后又有用户报告收到了发错的订阅确认邮件,泄露了他们的姓名、邮箱地址和支付信息。

你的聊天记录也可能被黑客盗取,或在 AI 公司接到法院传票时被上交。因此,务必使用强密码和双重认证来保护你的账户。此外,请避免输入以下信息:

  • 身份信息:包括社会安全号码、驾照号码、护照号码、出生日期、地址和电话号码。有些聊天机器人会尝试对这些信息进行自动屏蔽。OpenAI 发言人表示:“我们希望 AI 模型学习世界,而不是具体个人,我们也在积极减少个人信息的收集。”
  • 医疗信息:医疗隐私至关重要,能防止歧视或尴尬,而聊天机器人通常不受专门保护健康数据的法律约束。如果你确实想用 AI 解读检验报告,可以先裁剪图片或编辑文档。金建议:“尽量只留下化验结果,其他都打码。”
  • 财务账户:务必保护你的银行和投资账号信息,以防被人监控或盗用。
  • 公司机密:如果你在工作中用常规聊天机器人,有可能不小心泄露客户资料或商业机密,哪怕只是写封邮件也不例外。三星公司就因一名工程师向 ChatGPT 提交内部源代码而全面禁用该工具。如果你工作中需要 AI,最好使用企业版本或公司自建的安全系统。
  • 账号登录信息:随着 AI 代理可以执行现实任务,人们更容易把账户信息交给机器人。但这些服务并非为“密码保险箱”设计,请将密码、PIN 和密保问题留给专业的密码管理器。

如何保护隐私

当你给聊天机器人点赞或点踩时,可能也在允许它将你的提示和回答用于训练。如果你在聊天中提到了暴力等敏感内容,工作人员也可能会审查对话。

Anthropic 旗下的 Claude 默认不会将聊天内容用于训练,并会在两年后删除数据。而 OpenAI 的 ChatGPT、微软的 Copilot 和谷歌的 Gemini 虽会使用聊天内容,但提供了设置中可选择的“退出”选项。如果你在意隐私,可以尝试以下做法:

  • 经常删除聊天记录:Anthropic 的首席信息安全官贾森·克林顿表示,谨慎的用户应在每次对话结束后立即删除。通常公司会在 30 天内清除被删除的数据。
  • 使用临时对话:ChatGPT 提供“临时对话”功能,类似浏览器的“隐私模式”,位于聊天窗口右上角。开启后,聊天内容不会保存,也不会被用于模型训练。
  • 匿名提问:Duck.ai(由 DuckDuckGo 推出)会将你的问题匿名化再传递给 Claude 或 OpenAI 等模型,同时承诺不用于训练数据。不过,它无法执行一些更复杂的 AI 操作,比如分析文件。

最后要记住:聊天机器人被设计成能一直与你对话,但是否要继续交谈或删除内容,取决于你自己。

Leave a Comment

您的邮箱地址不会被公开。 必填项已用 * 标注