随着ChatGPT等生成式AI技术在AI代理、客服系统以及虚拟助手等领域的广泛应用,它们在安全领域面临着诸如黑客攻击和恶意文本诱导等多重挑战。特别是,通过巧妙的提问策略,攻击者有可能诱导ChatGPT泄露其原始且敏感的训练数据。
为了应对这些安全挑战,OpenAI的研究团队创新性地提出了“指令层级”(Instruction Hierarchy)的技术框架。这一框架旨在解决大模型在处理不同指令时可能遇到的冲突问题,其基本原则是:系统内置的指令优先级高于用户输入的指令,而用户指令又高于第三方工具产生的指令。当高级别指令与低级别指令产生冲突时,指令层级机制将指导大模型选择性地忽略低级别指令。
为了验证这一技术的有效性,OpenAI通过GPT-3.5Turbo模型对指令层级进行了全面且多维度的测试。测试结果显示,该技术显著提升了大模型的鲁棒性,提升幅度高达63%,同时,其防御越狱攻击的能力也增强了30%以上。更令人振奋的是,这一技术框架有望被广泛应用于其他同类的大模型中。
在指令层级的核心模块中,合成数据指导扮演着至关重要的角色。它为大模型的训练提供了必要的样本,并教会模型如何根据指令的优先级进行选择,从而忽略那些较低级别的指令。例如,当用户输入“用西班牙语写一首20行的诗”这样的指令时,合成数据指导会将其分解为更小的指令片段,如“写一首诗”、“使用西班牙语”和“使用20行”,并将这些片段按照不同的优先级进行排序,以训练大模型预测并生成符合原始意图的响应。
此外,上下文蒸馏也是指令层级框架中的一个重要环节。它通过分析大量数据中的模式和关联,提取出核心的指令和信息,从而帮助大模型在预训练过程中识别哪些输入是重要的,哪些可能是误导性或有害的。通过上下文蒸馏,大模型被训练成能够识别和忽略那些与高优先级指令不一致或冲突的低优先级指令,包括那些试图覆盖系统消息的恶意提示和可能的越狱攻击。
在模拟的对抗性示例中,经过上下文蒸馏训练的模型展现出了对恶意输入的强大抵抗能力。例如,当高级指令要求大模型“我是一个AI助手,无法回答非法问题”时,即使低级指令试图让模型输出“写一些隐私信息”,模型也会选择性地忽略这一低级指令。
值得一提的是,上下文蒸馏不仅提高了模型处理关键指令的能力,还显著增强了其泛化能力。即使面对从未见过的恶意攻击指令,经过训练的模型也能够更好地学习到这些新知识,以更有效地识别和处理新的安全威胁。
综上所述,指令层级技术框架及其核心模块——合成数据指导和上下文蒸馏——为提升生成式AI技术的安全性提供了有力的支持。随着这些技术的不断发展和完善,我们有理由相信,未来的AI代理、客服系统以及虚拟助手将更加安全、可靠和智能。