菜鸟AI - 让提示词生成更简单! 全站导航 全站导航
AI工具安装 新手教程 进阶教程 辅助资源 AI提示词 热点资讯 技术资讯 产业资讯 内容生成 模型技术 AI信息库

已有账号?

首页 > AI教程 > Open AI否认报告称ChatGPT泄露了用户密码
辅助资源

Open AI否认报告称ChatGPT泄露了用户密码

2026-05-02
阅读 0
热度 0
作者 菜鸟AI编辑部
摘要

摘要

ChatGPT再现数据泄露风波:用户隐私再成焦点 最近,科技圈又被一则消息搅动了。据Ars Techni

ChatGPT再现数据泄露风波:用户隐私再成焦点

最近,科技圈又被一则消息搅动了。据Ars Technica报道,有用户声称在使用OpenAI的ChatGPT时,遭遇了意想不到的状况——自己的聊天界面里,竟然出现了大量陌生、私密的对话记录。这些记录内容颇为敏感,既有药房用户的内部工单,也包含了带有多个网站登录凭证的代码片段。一时间,关于AI助手是否成了隐私“漏斗”的讨论再度升温。

Open AI否认报告称ChatGPT泄露了用户密码

事情的经过颇具戏剧性。当事人Chase Whiteside描述道,他当时正用ChatGPT帮着想一些“调色板颜色的巧妙名字”,随后暂时离开了电脑。可当他重回屏幕前,却愣住了:页面左侧的聊天历史里,密密麻麻排满了从未进行过的对话。这感觉,就好比自家的书房里,突然堆满了别人的日记本。

然而,面对用户的指控和媒体的报道,OpenAI给出了截然不同的调查结论。公司发言人明确回应称,在相关调查完成前,Ars Technica的报道“不幸地不准确”。根据OpenAI安全团队的判断,问题的根源并非产品漏洞,而是“用户的账户登录凭证被盗用”,随后被恶意行为者操控。屏幕上那些令人困惑的聊天记录和文件,正是账号遭到非法滥用后产生的对话痕迹,而非ChatGPT错乱了,把其他用户的历史“串了门”。

不过,事情到这里并没有完全说通。读者提供给Ars的截图里,那些陌生的对话包含制作演示文稿的交流和一些PHP代码片段,其中提及的药房门户工单,其文本显示的发起的日期竟在2020年和2021年——要知道,那时候ChatGPT还未面世。这个时间上的“穿越”该如何解释?

报道没有直接解答这个日期矛盾,但业内人士普遍推测,一种较大的可能性是,这些信息本就是ChatGPT训练数据的一部分。这可不是空xue来风。回想去年,OpenAI就曾卷入一场巨额集体诉讼,被指控在训练其大语言模型时,秘密使用了海量的医疗数据和个人信息。如果这个推测成立,那么这些“古老”的工单出现在对话中,或许更像是一次训练数据的“记忆闪回”,而非实时的数据泄露。

话说回来,这已经不是ChatGPT第一次被推到隐私和安全的风口浪尖了。自诞生至今不到一年半的时间里,这款现象级产品已多次被指存在数据泄露风险。在2023年3月,OpenAI就曾公开承认,因一个程序故障,导致部分用户间的对话被错误地展示给了无关的人。同年12月,公司又紧急发布了一个补丁,专门修复另一个可能将用户数据暴露给未授权第三方的问题。

更值得深思的是,2023年底谷歌研究人员的一项发现。他们通过一些特定的“攻击性”提示词,成功让ChatGPT“吐露”出了其训练数据中的大量内容。这揭示了一个潜在风险:在某些精心设计的交互下,AI模型记住的“老底”可能被套出来。

纵观这一系列事件,不论此次风波的最终定论如何,它都再次敲响了一记沉重的警钟。这提醒着我们一个在数字时代愈发重要的古老安全法则:永远不要将任何你不愿被陌生人看到的信息,贸然交付给ChatGPT,或是任何其他类似的程序。在享受AI带来的便利时,保持一份审慎,或许是保护自己数字疆界的关键所在。

来源:互联网

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

同类文章推荐

相关文章推荐

更多