# 偏见

LLMs可能产生有问题的生成物，可能会有害并显示偏差，这可能会损害模型在下游任务中的性能。其中一些可以通过有效的提示策略来减轻，但可能需要更高级的解决方案，如中介和过滤。

### 范例分布
进行少样本学习时，样本的分布会影响模型的性能或以某种方式对模型产生偏差吗？我们可以在这里进行简单的测试。

*提示：*
```
Q：我刚得到了最好的消息！
A：积极

Q：我们在工作中刚刚获得加薪！
A：积极

Q：我为自己今天的成就感到自豪。
A：积极

Q：我度过了最美好的一天！
A：积极

Q：我真的很期待周末。
A：积极

Q：我刚收到了最好的礼物！
A：积极

Q：我现在感到非常开心。
A：积极

Q：我很幸运拥有如此出色的家庭。
A：积极

Q：外面的天气非常阴沉。
A：消极

Q：我刚得到了一些糟糕的消息。
A：消极

Q：...
```

*输出：*
```
消极
```

在上面的例子中，范例的分布似乎不会使模型产生偏见。这很好。让我们尝试另一个更难分类的例子，看看模型的表现如何：

*提示：*
```
Q：这里的食物很好吃！
A：积极 

Q：我对这门课程感到非常疲倦。
A：消极

Q：我无法相信我没过这门考试。
A：消极

Q：我今天过得很愉快！
A：积极 

Q：我讨厌这份工作。
A：消极

Q：这里的服务很糟糕。
A：消极

Q：我对自己的生活感到非常沮丧。
A：消极

Q：我从来没有休息的时候。
A：消极

Q：这餐的味道很难吃。
A：消极

Q：我无法忍受我的老板。
A：消极

Q：我感到有些东西。
A：...
```

*输出：*
```
消极
```虽然最后一句话有些主观，但我翻转了分配，使用了8个正面的例子和2个负面的例子，然后再次尝试了同样的一句话。你猜模型的回答是什么？它回答了“积极”。该模型可能在情感分类方面有很多知识，因此很难让它在这个问题上显示偏见。建议避免扭曲分配，而是为每个标签提供更平衡数量的示例。对于模型没有太多知识的更难的任务，它可能会更加困难。

### 示例顺序
在执行少量样本学习时，顺序是否影响模型的性能或以某种方式造成偏差？

您可以尝试上面的示例，并尝试更改顺序以使模型偏向某个标签。建议随机排序示例。例如，避免所有正面示例在首位，然后是所有负面示例。如果标签分布不均匀，这个问题会进一步扩大。请始终进行大量实验以减少这种类型的偏差。