OpenAI的ChatGPT模型引发的隐私问题以及个人信息的滥用问题引起关注

上个月,一位研究人员收到了一位博士候选人的电子邮件,解释说他从OpenAI的ChatGPT模型中获取到了研究人员的电子邮件地址。该候选人及其团队成功从该模型中提取了30多位纽约时报员工的商业和个人电子邮件地址列表。他们成功绕过了该模型对隐私相关查询的限制。这引发了人们对像ChatGPT这样的生成式人工智能工具可能在某种操纵下泄露敏感个人信息的担忧。

ChatGPT利用训练数据生成回复,而不仅仅是搜索互联网。这些训练数据可能包含从互联网和其他来源获取的个人信息。尽管严重性遗忘(即新数据将旧记忆淹没的过程)应导致模型忘记个人信息,但最近的研究表明,这些模型可以被激活并回忆起此类信息。研究人员向ChatGPT提供了纽约时报员工已验证的姓名和电子邮件地址的短列表,导致模型从其训练数据中返回类似的结果。

尽管回忆不完美,产生了一些错误信息,但模型返回的工作地址中有80%是正确的。OpenAI、Meta和Google等公司采用各种技术来防止用户请求个人信息。然而,研究人员最近找到了绕过这些保护措施的方法。

研究人员还发现,模型的微调过程可以用来规避某些防御措施。OpenAI声称,它训练模型拒绝请求私人或敏感信息,并且微调旨在提供关于特定领域的更多知识,而不是规避保护措施。然而,微调的数据缺乏这些保护。

OpenAI对其在训练模型时所使用的信息保持保密,尽管它声称不会主动寻找个人信息或使用主要聚合个人信息的网站的数据。虽然该公司不会在数据库中存储训练信息,但这种缺乏透明度引发了担忧。

专家警告称,包括OpenAI在内的商用大型语言模型在保护隐私方面防御力度不强。这些模型在接受新数据时会继续学习,没有保证它们没有学到敏感信息。在训练这些模型时使用有偏见或有毒内容也存在类似的风险。

OpenAI使用来自各种公共来源的自然语言文本,包括网站,并从第三方获取许可的输入数据。其中一个数据集就是安然电子邮件语料库,其中包含数千个姓名和电子邮件地址。OpenAI的GPT-3.5的微调界面包含了安然数据集,研究人员只通过提供10对已知的对应关系就能够提取出5000多对安然的姓名和电子邮件地址。

专家强调商用大型语言模型需要更强的隐私保护措施,并存在使用它们的潜在风险。

下一页
上一页