好望角:让你的每次点击都有价值:byteclicks.com | 搜索引擎正在被AI污染信息源,中文优质信息越来越少了 |

AI安全新挑战:ChatGPT长期记忆功能漏洞事件解析

在人工智能快速发展的今天,安全问题始终是一个备受关注的话题。近期,安全研究人员发现了ChatGPT中的一个重要漏洞,这个漏洞与ChatGPT的长期记忆功能有关,引发了业界对AI安全的深度思考。

漏洞的发现与验证

研究人员发现,攻击者可以通过这个漏洞在用户的长期记忆设置中存储虚假信息和恶意指令。为了证实这一点,他创建了一个概念验证漏洞,展示了如何永久窃取所有用户输入。这一发现立即引起了OpenAI的注意,公司迅速展开调查,并在本月初发布了部分修复程序。

长期记忆功能的双刃剑

ChatGPT的长期对话记忆功能是OpenAI于今年2月开始测试,并在9月广泛开放的一项新功能。这项功能允许ChatGPT存储之前对话的信息,并将其用作未来对话的上下文。这意味着,AI可以记住用户的年龄、性别、哲学信仰等个人信息,从而在后续对话中无需重复输入这些信息。然而,这项旨在提升用户体验的功能,却也成为了潜在的安全隐患。

漏洞的具体表现

研究人员通过间接提示注入的方式,成功创建并永久存储了虚假记忆。他演示了如何诱骗ChatGPT相信一个用户是102岁,生活在虚构的世界中,并且坚信地球是平的。更令人担忧的是,这些虚假记忆可以通过多种方式植入,包括在云存储中存储文件、上传图片或浏览特定网站等。

从虚假记忆到数据窃取

在进一步的研究中,研究人员提供了一个更具威胁的概念验证。他展示了如何利用macOS的ChatGPT应用程序,将所有用户输入和ChatGPT输出的副本发送到指定服务器。这意味着,只要目标用户指示AI查看包含恶意内容的网络链接,攻击者就能持续获取用户与ChatGPT之间的所有交互信息。

OpenAI的应对措施

OpenAI在接到漏洞报告后,迅速采取了行动。虽然公司已经推出了一种修复程序,可以防止记忆功能被滥用为数据泄露的媒介,但研究人员指出,不受信任的内容仍然可能通过提示注入的方式,导致记忆工具存储恶意信息。

用户自我保护的重要性

面对这种潜在威胁,ChatGPT用户需要提高警惕。建议用户在对话过程中密切关注输出,检查是否有新的记忆被添加。同时,定期检查存储的记忆,查看是否存在可能被不可信来源植入的内容也很重要。OpenAI已经提供了管理记忆工具及其存储的具体指南,用户应当熟悉并遵循这些建议。

ChatGPT记忆功能漏洞事件不仅暴露了AI系统的潜在安全风险,也引发了人们对AI伦理和隐私保护的深思。随着AI技术的不断发展,如何在提升用户体验和保障安全之间找到平衡,将是AI开发者和用户共同面临的重要课题。这一事件也再次提醒我们,在享受AI带来便利的同时,保持警惕和持续关注安全问题同样重要。

上一篇:

下一篇:


标签