# 零-shot提示
今天，经过大量数据训练和调整以遵循指令的LLM可以零-shot地执行任务。我们在上一节中尝试了一些零-shot示例。这是我们使用过的一个示例：

*提示：*
```
将文本分类为中性、负面或正面。

文本：我觉得假期还好。
情感：
```

*输出：*
```
中性
```

请注意，上述提示中我们没有提供任何示例给模型——这就是零-shot能力所在。

指令调整已经显示可以改善零-shot学习 [Wei等人 (2022)](https://arxiv.org/pdf/2109.01652.pdf)。指令调整本质上是在由指令描述的数据集上微调模型的概念。此外，[RLHF](https://arxiv.org/abs/1706.03741) (从人类反馈学习)已经被采用来扩展指令调整，其中模型被调整以更好地适应人类偏好。这一最新的进展使ChatGPT等模型变得更为强大。我们将在接下来的几节中讨论所有这些方法和技术。

当零-shot无法解决问题时，推荐在提示中提供演示或示例，这将导致变为少量示例提示。在下一节中，我们将演示少量示例提示。