---
title: MCP 服务器
description: 在 Plate 中使用模型上下文协议。
---

Plate 有一个官方的 MCP 服务器。这使 AI 工具能够理解并使用我们丰富的编辑器模板、插件配置、UI 组件和文档生态系统。

## 什么是 MCP？

模型上下文协议（MCP）是一个开放协议，用于标准化应用程序如何向 LLM 提供上下文。这对 Plate 很有用，因为你现在可以让你的 AI 辅助 IDE 直接访问数百个 Plate 资源。

## 在 Plate 中使用 MCP

你的 AI 现在可以：

- 访问我们所有的编辑器模板、插件和 UI 组件
- 访问我们的完整文档，包括指南和 API 参考
- 生成具有正确导入和配置的代码
- 帮助设置完整的编辑器实例或特定功能
- 保持你的 Plate 配置和组件最新

尝试询问你的 AI：

```bash
"设置一个具有基本格式和表格支持的 Plate 编辑器"
"帮助我理解 Plate AI 插件的工作原理"
"将我的编辑器组件更新到最新版本"
```

## 工作原理

Plate 生态系统提供结构化信息，支持 MCP 的工具可以从统一注册表中读取，包括：

- 编辑器模板和插件配置
- UI 组件及其依赖项
- 文档文件和迁移指南
- API 参考和示例

这个全面的注册表确保 AI 工具在代码生成和理解 Plate 功能方面具有完整的上下文。

## 本地文档

对于使用 Plate 的团队来说，集成本地文档是最大化 MCP 效益的关键。我们建议按照我们的[本地文档](/docs/installation/docs)指南进行设置。这种方法为 AI 驱动的开发提供了几个优势：

-   **版本特定上下文：** AI 工具可以直接访问与你的项目 Plate 版本完全匹配的文档，确保相关和准确的帮助。
-   **优于 `llms.txt`：** 与简单地将文档转储到文本文件中（可能难以处理大量内容和上下文限制）不同，结构化的本地设置允许 AI 高效访问所需的特定信息。
-   **集成工作流：** 文档成为代码库的一部分，简化更新、版本控制和团队协作。
-   **AI 就绪：** 结构良好的本地文档使 AI 能够更有效地协助生成代码、创建摘要或在项目上下文中解释复杂的 Plate 功能。

## 设置 MCP

将代码复制并粘贴到 `.cursor/mcp.json`（或 `.codeium/windsurf/mcp_config.json` 用于 Windsurf）

```json
{
  "mcpServers": {
    "plate": {
      "description": "Plate editors, plugins, components and documentation",
      "type": "stdio",
      "command": "npx",
      "args": ["-y", "shadcn@canary", "registry:mcp"],
      "env": {
        "REGISTRY_URL": "https://platejs.org/r/registry.json"
      }
    }
  }
}
```

## 最佳实践

1.  **本地文档：** 设置本地文档以提供 AI 工具版本特定的上下文。这确保了更准确的帮助，特别是对于较大的项目。
2.  **AI 辅助开发：** 让 AI 处理编辑器设置、插件集成和组件添加。
3.  **手动回退：** 在需要时使用 [shadcn CLI](/docs/components/cli) 进行手动添加（例如，使用小型模型或过时的文档）。
4.  **保持更新：** 保持你的 Plate 组件和本地文档同步。定期查看我们的[更新日志](/docs/components/changelog)或向你的 AI 询问更新。
