# Vespa Retriever

展示如何使用Vespa.ai作为LangChain检索器。
Vespa.ai是用于高效结构化文本和向量搜索的平台。
请参阅[Vespa.ai](https://vespa.ai)获取更多信息。

以下设置了一个从Vespa文档搜索中获取结果的检索器:

import CodeBlock from "@theme/CodeBlock";

import Example from "!!raw-loader!@examples/retrievers/vespa.ts";


<CodeBlock language="typescript">{Example}</CodeBlock>


此处，检索了"段落"文档类型中"内容"字段的最多5个结果，
使用"documentation"作为排名方法。"userQuery()"被实际查询替换

请参阅[pyvespa文档](https://pyvespa.readthedocs.io/en/latest/getting-started-pyvespa.html#Query)
获取更多信息。

URL是Vespa应用程序的终端点。
您可以连接任何Vespa终节点，远程服务或使用Docker本地实例。

然而，大多数Vespa Cloud实例都受到mTLS保护。
如果您的情况是这样的，您可以，例如设置[CloudFlare Worker](https://cloud.vespa.ai/en/security/cloudflare-workers)
其中包含连接到该实例所需的凭据。



Now you can return the results and continue using them in LangChain.

