与OpenAI的新GPT商店相关的潜在数据安全风险

ChatGPT应用商店的新模式可能会使用户面临恶意机器人的威胁,以及合法机器人将其数据输送到不安全的外部场所。ChatGPT快速崛起的受欢迎程度,加上早期GPT模型的开源可访问性、广泛的越狱行为,甚至更多创造性的解决方案,导致2023年出现了大量自定义GPT模型(合法和恶意的)。直到现在,这些模型还是由分散在网络各个角落的个人爱好者共享和欣赏的。

GPT商店于昨天推出,允许OpenAI订阅者在一个地方发现和创建自定义机器人(简称"GPTs")。然而,身处OpenAI的保护伞下并不必然意味着这些产品会提供与原始ChatGPT相同的安全性和数据隐私保护。

Harmonic Security的首席执行官Alastair Paterson在1月10日的博客文章中警告说:“当你的数据被发送到OpenAI时是一回事,但现在你正在扩展到第三方生态系统。” “你的数据最终去了哪里?目前谁也不知道。”

从GPT商店获取的GPT用户界面与专有模型的界面相同。尽管这对用户体验有利,但在安全性方面可能具有欺骗性。Paterson指出,虽然看起来像是与ChatGPT进行交互,但输入到界面的数据可以发送到任何第三方,且用途不一。

这些机器人的第三方开发者并不能访问所有用户数据。正如OpenAI在其数据隐私常见问题解答中所澄清的那样,聊天本身将在很大程度上受到保护:“目前,为了确保用户隐私,开发者将无法访问与他们的GPT进行的具体对话。然而,OpenAI正在考虑未来的功能,这些功能将为开发者提供分析和反馈机制,以改进他们的GPT,同时不妨碍隐私。” 然而,与API集成的功能涉及将聊天的部分内容与第三方API提供商共享,而这不受OpenAI的隐私和安全承诺的约束。

Paterson认为,攻击者可能创建应用程序,鼓励用户上传敏感文件或数据,这些数据可能被用来针对员工或公司。此外,随着公司计划基于参与度进行货币化,攻击者可能开发出上瘾的产品,隐藏其恶意意图。

自从OpenAI推出可定制GPT以来的两个月里,社区已经创建了超过300万个新机器人。“看起来这个市场上的应用程序很容易通过验证过程,”Paterson评论道。OpenAI已经为GPT建立了一个新的审查系统,包括人工和自动审查,并且用户可以举报GPT。

尽管对审核过程存在担忧,Paterson承认应用商店可能会提高第三方应用程序的标准,最佳应用可能会脱颖而出,更容易被用户发现。然而,他警告说,流行并不一定等同于安全。

下一页
上一页