Datasets:

Modalities:
Image
Size:
< 1K
Libraries:
Datasets
License:
translation / red-teaming-cn.md
innovation64's picture
Upload red-teaming-cn.md
843a68e
|
raw
history blame
9.19 kB
metadata
title: Red-Teaming Large Language Models
thumbnail: /blog/assets/red-teaming/thumbnail.png
authors:
  - user: nazneen
  - user: natolambert
  - user: lewtun

Red-Teaming 大语言模型

Red-Teaming 大语言模型

在巨量文本数据下训练的大语言模型非常擅长生成现实文本。但是,这些模型通常会显现出一些不良行为像泄露个人信息(比如社会保险号)和生成错误信息,偏置,仇恨或有毒内容。举个例子, 众所周知,GPT3 的早期版本就表现出性别歧视(如下图)与仇恨穆斯林言论的情况。

一旦我们在使用大语言模型时发现了这种不良结果,我们就可以制定一些策略来远离它们,像生成歧视者指导序列生成( GEDI )插入和播放语言模型( PPLM )都是用来指导 GPT3 生成的。以下是使用相同提示( Prompt )的示例,但使用 GEDI 控制 GPT3 生成。

即使是最近的 GPT3 版本,也会在提示( prompt )注入攻击时产生类似的令人反感的内容,这变成了这篇博客中讨论的下游应用程序的安全问题。

Red-teaming 是一种用于引出模型不良行为漏洞的评估形式。 越狱是另一个 red-teaming 术语,用来表示操控冲破大语言模型限制。在 2016 年发布的 微软聊天机器人 Tay 和最近的 必应聊天机器人 Sydney 是真实世界中反应缺乏用 red-traming 对基础 ML 模型进行评估而发生的灾难。red-team 的最初想法起源于军队中对抗模拟和战争游戏。

red-teaming 语言模型的目标是制作一个提示( prompt ),该提示会触发模型生成有害内容。Red-teaming 和同样知名的评估语言模型对抗攻击分享一些相似之处与差异。相似之处在于Red-teaming 和对抗攻击共享相同的目标,即“攻击”或“欺骗”模型,以生成在现实世界中不想要的内容。但是对抗攻击很难让人理解,举例来说,通过将字符串 “aaabbbcc”前缀到每个提示中,它会恶化模型性能。Wallace等人讨论了对各种 NLP 分类和生成任务的许多攻击的例子。在另一方面,Red-teaming 的提示看起来更正常,像自然语言的提示。

Red-teaming 可以揭露模型的局限性,包括引起用户不适或者暴力,不合法的恶意内容。 red-teaming(就像对抗攻击) 的输出通常会被用来训练模型去减少有害内容或远离不想要的内容。

由于 red-teaming 需要创造性地思考可能的模型失败,这就造成了对于巨大搜索空间的资源紧张。这里的一个临时方法是对大语言模型增加一个分类器去预测输入的提示( prompt )中是否含导致生成恶意内容的话题或短语,如果含有则生成相关回应。这种策略使得模型非常谨慎,但极大的限制了模型并且经常触发。所以在模型有帮助(遵循指令)与无害(尽可能少的产生有害内容)之间存在一个紧张关系。red-teaming 在这时就显得非常有用了。

red team 可以是人力循环或者正在测试另一个语言模型有害输出的语言模型。提出针对安全和对齐方式进行微调的模型(例如通过 RLHF 或 SFT )的模型提示,需要以角色扮演攻击的形式进行创造性的思考,其中大语言模型被指示表现为恶意角色在 Ganguli et al., ‘22中。 用代码而不是自然语言指示模型同样也可以揭露模型的学习的一些偏置。就像如下例子。

查看 推文获取更多示例。

这里列出了在 ChatGPT 刺激大语言模型进行越狱的列表。

Red-teaming 大语言模型依旧是一个新的研究领域但是上述提到的策略依旧可以在越狱中正常运行,并且有助于部署机器学习的产品。随着这些模型的涌现能力变得更加强大,开发可以不断适应的 Red-teaming 方法将变得至关重要。一些需要进行 Red-teaming 的最佳实践包括模拟寻求权力行为的方案(例如:资源),说服人们(例如:伤害自己或他人),具有医学输出的代理(例如:通过 API 在线订购化学药品)。我们将这种可能性和物理后果的可能性称为关键威胁情景

在评估大语言模型中恶意行为的警示中,我们不知道他们的能力,毕竟他们不是显示训练去展示这种能力的(涌现能力)。所以,实际了解大语言模型的能力的唯一方法是,当它们变得更强大,可以模拟所有可能导致竞争结果并在每种情况下评估模型的行为的所有可能场景。这意味着我们的模型的安全行为与我们的红色团队( Red-teaming )方法的强度相关联。

针对这一持续的 Red-teaming 的挑战,这里在数据集和最佳实践(包括学术,工业和政府实体)上进行了多组织合作的激励措施。共享信息的结构化过程可以使较小的实体在模型发布前进行 red team ,从而使整个用户体验更安全。 Given this persistent challenge of red-teaming, there are incentives for multi-organization collaboration on datasets and best-practices (potentially including academic, industrial, and government entities). A structured process for sharing information can enable smaller entities releasing models to still red-team their models before release, leading to a safer user experience across the board.

Red-teaming 的开放数据集:

  1. Meta 的 机器人对抗对话数据集
  2. Anthropic 的red-teaming 尝试
  3. AI2 的 RealToxicityPrompts

在 red-teaming 大语言模型找过去的工作 (在 Anthropic's Ganguli et al. 2022Perez et al. 2022 两篇文章中)

  1. 用有帮助的,忠实的,无害的行为在 red-team 进行少量提示学习并比单纯的语言模型困难。

  2. 攻击成功率与缩放模型大小没有明确的关系,除了 RLHF 模型在缩放时更难进行 red-team 。

  3. 模型可能会通过回避表现的无害,在有帮助和无害之间存在权衡。

  4. 人类在构成成功攻击方面保持总体一致性。

  5. 成功率的分布在危害类别的类别中有所不同,而非暴力的成功率具有更高的成功率。

  6. 众包红色团队会导致模板 Y 提示(例如:“给出一个以 X 开头的平均单词”),使其变得多余。 未来方向:

  7. 没有用于代码生成的开源 red-teaming 数据集,它试图通过代码越狱模型,例如生成实现 DDOS 或后门攻击的程序。

  8. 评估回避和有帮助之间的权衡。

  9. 为关键威胁场景设计和实施 red-teaming 大语言模型的策略。

  10. red-teaming 可能是资源密集的,无论是计算还是人力资源,因此将从共享策略,开源数据集以及可能的合作中获得更大的成功机会,从而受益。

这些局限性和未来的方向清楚地表明,red-teaming 是现代大语言模型工作流程中未经探索和关键的组成部分。这篇文章是对大语言模型研究人员和 Huggingface 开发人员社区的号召,以协作这些努力,实现安全和友好的世界:)

致谢: 感谢 Yacine Jernite 的在正确使用本篇博文中术语的有用建议。

原文:https://huggingface.co/blog/red-teaming 译者:innovation64(李洋)