Ars Technica最近报道了一则消息,一位用户声称OpenAI的ChatGPT聊天机器人泄露了其私密对话,包括药房用户的工单和显示多个网站的登录凭证的代码片段。
这位名叫Chase Whiteside的用户表示,他们一直在使用ChatGPT来想出“调色板中颜色的巧妙名称”,但在一次使用后离开屏幕,回来时发现页面左侧出现了更多对话,这些对话都不是他们自己发起的。然而,OpenAI公司并不认同这一指控。
在回应Ars Technica的报道时,OpenAI公司表示:“Ars Technica在我们的欺诈和安全团队完成调查之前就发表了报道,他们的报道不幸地不准确。”公司发言人解释说,“根据我们的调查结果,用户的账户登录凭证被盗用,然后一个恶意行为者使用了这个账户。显示的聊天历史和文件是这个账户被滥用的对话,而不是ChatGPT显示了另一个用户的历史。”
此外,读者提供的截图显示了一些对话,其中包括制作演示文稿的交流和一些PHP代码,似乎包含了之前提到的药房门户故障处理工单。然而,这些工单的文本显示它们是在2020年和2021年发起的,而那时ChatGPT还没有推出。对于这一日期的不一致,网站没有给出解释,但有一种可能性是这些数据是ChatGPT训练数据的一部分。
事实上,去年OpenAI公司曾因一起集体诉讼案被指控秘密使用大量医疗数据和其他个人信息来训练其大型语言模型(LLM)。在不到18个月的历史中,ChatGPT已经被多次指控存在安全漏洞。例如,在2023年3月,OpenAI承认一个故障导致聊天机器人向无关用户显示了一些用户之间的对话。同年12月,该公司发布了一个补丁,以修复可能将用户数据暴露给未经授权的第三方的问题。
此外,在2023年底,谷歌的研究人员发现,通过使用一些“攻击”提示,可以让ChatGPT泄露其训练数据的大部分内容。然而,至少提醒了我们一个重要的安全格言:不要在ChatGPT或其他程序中存储任何你不想让陌生人看到的信息。