---
sidebar_position: 1
---
# 语言模型 （ Language models ）

![LangChain](https://pica.zhimg.com/50/v2-56e8bbb52aa271012541c1fe1ceb11a2_r.gif 'LangChain中文网')


LangChain提供了两种类型模型的接口和集成:

- [LLMs](/docs/modules/model_io/models/llms/): 输入一个文本字符串并返回一个文本字符串的模型
- [聊天模型](/docs/modules/model_io/models/chat/): 由语言模型支持的模型，接受一个聊天消息列表作为输入并返回一个聊天消息

## LLMs vs 聊天模型

LLMs和聊天模型在细微但重要的方面有所不同。LangChain中的LLMs是指纯文本完成模型。它们包装的API接受一个字符串提示作为输入，并输出一个字符串完成。OpenAI的GPT-3是作为LLM实现的。
聊天模型通常由LLMs支持，但专门调整用于进行对话。关键是，它们的提供者API使用与纯文本完成模型不同的接口。它们不是接受单个字符串作为输入，而是接受一个聊天消息列表作为输入。通常，这些消息带有发言者标签（通常是“系统”，“AI”和“人类”之一）。它们返回一个AI聊天消息作为输出。GPT-4和Anthropic的Claude都是作为聊天模型实现的。

为了使LLMs和聊天模型可以互换，两者都实现了基本语言模型接口。这包括常见的方法“predict”，它接受一个字符串并返回一个字符串，以及“predict messages”，它接受消息并返回一个消息。
如果您正在使用特定模型，建议使用该模型类的特定方法（例如LLMs的“predict”和聊天模型的“predict messages”），但如果您创建的应用程序需要与不同类型的模型一起工作，则共享接口可能会有所帮助。
