export default [
  {
    "id": 1,
    "name": "大模型",
    "type": 1,
    "desc": "大模型",
    "navList": [
      {
        "id": 1,
        "name": "通义千问-VL-Chat",
        "desc": "Qwen-VL 是阿里云研发的大规模视觉语言模型（Large Vision Language Model, LVLM）。Qwen-VL 可以以图像、文本、检测框作为输入，并以文本和检测框作为输出。",
        "modelscope": "https://modelscope.cn/models/qwen/Qwen-VL-Chat/summary",
        "huggingface": "https://huggingface.co/Qwen/Qwen-VL-Chat",
        "logo": "https://resouces.modelscope.cn/avatar/60e16887-ec86-40c8-94a1-75127125217d.png"
      },
      {
        "id": 2,
        "name": "通义千问-72B-Chat",
        "desc": "通义千问-72B（Qwen-72B）是阿里云研发的通义千问大模型系列的720亿参数规模的模型。Qwen-72B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样，覆盖广泛，包括大量网络文本、专业书籍、代码等。同时，在Qwen-72B的基础上，我们使用对齐机制打造了基于大语言模型的AI助手Qwen-72B-Chat。",
        "modelscope": "https://modelscope.cn/models/qwen/Qwen-72B-Chat/summary",
        "huggingface": "https://huggingface.co/Qwen/Qwen-72B-Chat",
        "logo": "https://resouces.modelscope.cn/avatar/60e16887-ec86-40c8-94a1-75127125217d.png"
      },
      {
        "id": 3,
        "name": "通义千问-7B-Chat",
        "desc": "通义千问-7B（Qwen-7B）**是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen-7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样，覆盖广泛，包括大量网络文本、专业书籍、代码等。同时，在Qwen-7B的基础上，我们使用对齐机制打造了基于大语言模型的AI助手Qwen-7B-Chat。相较于最初开源的Qwen-7B模型，我们现已将预训练模型和Chat模型更新到效果更优的版本。",
        "modelscope": "https://modelscope.cn/models/qwen/Qwen-7B-Chat/summary",
        "huggingface": "https://huggingface.co/Qwen/Qwen-7B-Chat",
        "logo": "https://resouces.modelscope.cn/avatar/60e16887-ec86-40c8-94a1-75127125217d.png"
      },
      {
        "id": 4,
        "name": "通义千问-14B-Chat",
        "desc": "通义千问-14B（Qwen-14B）**是阿里云研发的通义千问大模型系列的140亿参数规模的模型。Qwen-14B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样，覆盖广泛，包括大量网络文本、专业书籍、代码等。同时，在Qwen-14B的基础上，我们使用对齐机制打造了基于大语言模型的AI助手Qwen-14B-Chat。",
        "modelscope": "https://modelscope.cn/models/qwen/Qwen-14B-Chat/summary",
        "huggingface": "https://huggingface.co/Qwen/Qwen-14B-Chat",
        "logo": "https://resouces.modelscope.cn/avatar/60e16887-ec86-40c8-94a1-75127125217d.png"
      },
      {
        "id": 5,
        "name": "Yi-6B",
        "desc": "Yi系列模型是由来自“零一万物”的开发者研发的大型语言模型。第一个公开版本包含两个双语版（英语/中文）基础模型，参数规模分别为6B和34B。两者都使用4K序列长度进行训练，并在推理时可以扩展到32K。",
        "modelscope": "https://modelscope.cn/models/01ai/Yi-6B/summary",
        "huggingface": "https://huggingface.co/01-ai/Yi-6B",
        "logo": "https://resouces.modelscope.cn/avatar/bee887d1-690c-478a-8400-dbcc50cef465.png"
      },
      {
        "id": 6,
        "name": "Yi-34B",
        "desc": "Yi系列模型是由来自“零一万物”的开发者研发的大型语言模型。第一个公开版本包含两个双语版（英语/中文）基础模型，参数规模分别为6B和34B。两者都使用4K序列长度进行训练，并在推理时可以扩展到32K。",
        "modelscope": "https://modelscope.cn/models/01ai/Yi-34B/summary",
        "huggingface": "https://huggingface.co/01-ai/Yi-34B",
        "logo": "https://resouces.modelscope.cn/avatar/bee887d1-690c-478a-8400-dbcc50cef465.png"
      },
      {
        "id": 7,
        "name": "BlueLM-7B-Base",
        "desc": "BlueLM 是由 vivo AI 全球研究院自主研发的大规模预训练语言模型，本次发布包含 7B 基础模型和 7B 对话模型，同时我们开源了支持 32K 的长文本基础模型和对话模型。",
        "modelscope": "https://modelscope.cn/models/vivo-ai/BlueLM-7B-Base/summary",
        "huggingface": "https://huggingface.co/vivo-ai/BlueLM-7B-Base",
        "logo": "https://resouces.modelscope.cn/avatar/eb36fb36-6ae5-472c-b4f6-bdd069efdfc7.png"
      },
      {
        "id": 8,
        "name": "BlueLM-7B-Chat",
        "desc": "BlueLM 是由 vivo AI 全球研究院自主研发的大规模预训练语言模型，本次发布包含 7B 基础模型和 7B 对话模型，同时我们开源了支持 32K 的长文本基础模型和对话模型。",
        "modelscope": "https://modelscope.cn/models/vivo-ai/BlueLM-7B-Chat/summary",
        "huggingface": "https://huggingface.co/vivo-ai/BlueLM-7B-Chat",
        "logo": "https://resouces.modelscope.cn/avatar/eb36fb36-6ae5-472c-b4f6-bdd069efdfc7.png"
      },
      {
        "id": 9,
        "name": "chatglm2-6b",
        "desc": "ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本，在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上，ChatGLM2-6B 引入了新特性。",
        "modelscope": "https://modelscope.cn/models/ZhipuAI/chatglm2-6b/summary",
        "huggingface": "https://huggingface.co/THUDM/chatglm2-6b",
        "logo": "https://resouces.modelscope.cn/avatar/9b1583fa-0220-4fec-93f3-e0905d9cef9f.png"
      },
      {
        "id": 10,
        "name": "chatglm3-6b",
        "desc": "ChatGLM3-6B 是 ChatGLM 系列最新一代的开源模型，在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上，ChatGLM3-6B 引入了新特性。",
        "modelscope": "https://modelscope.cn/models/ZhipuAI/chatglm3-6b/summary",
        "huggingface": "https://huggingface.co/THUDM/chatglm3-6b",
        "logo": "https://resouces.modelscope.cn/avatar/9b1583fa-0220-4fec-93f3-e0905d9cef9f.png"
      },
      {
        "id": 11,
        "name": "ChatGLM-中英对话大模型-6B",
        "desc": "ChatGLM-6B 是一个开源的、支持中英双语问答的对话语言模型，基于 General Language Model (GLM) 架构，具有 62 亿参数。结合模型量化技术，用户可以在消费级的显卡上进行本地部署（INT4 量化级别下最低只需 6GB 显存）。ChatGLM-6B 使用了和 ChatGLM 相同的技术，针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练，辅以监督微调、反馈自助、人类反馈强化学习等技术的加持，62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。",
        "modelscope": "https://modelscope.cn/models/ZhipuAI/ChatGLM-6B/summary",
        "huggingface": "https://huggingface.co/THUDM/ChatGLM-6B",
        "logo": "https://resouces.modelscope.cn/avatar/9b1583fa-0220-4fec-93f3-e0905d9cef9f.png"
      },
      {
        "id": 12,
        "name": "chatglm3-6b-base",
        "desc": "ChatGLM3-6B 是 ChatGLM 系列最新一代的开源模型，在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上，ChatGLM3-6B 引入了新特性。",
        "modelscope": "https://modelscope.cn/models/ZhipuAI/chatglm3-6b-base/summary",
        "huggingface": "https://huggingface.co/THUDM/chatglm3-6b-base",
        "logo": "https://resouces.modelscope.cn/avatar/9b1583fa-0220-4fec-93f3-e0905d9cef9f.png"
      },
      {
        "id": 13,
        "name": "百川13B对话模型",
        "desc": "Baichuan-13B-Chat为Baichuan-13B系列模型中对齐后的版本，预训练模型可见Baichuan-13B-Base。\n" +
          "\n" +
          "Baichuan-13B 是由百川智能继 Baichuan-7B 之后开发的包含 130 亿参数的开源可商用的大规模语言模型，在权威的中文和英文 benchmark 上均取得同尺寸最好的效果。本次发布包含有预训练 (Baichuan-13B-Base) 和对齐 (Baichuan-13B-Chat) 两个版本。",
        "modelscope": "https://modelscope.cn/models/baichuan-inc/Baichuan-13B-Chat/summary",
        "huggingface": "https://huggingface.co/baichuan-inc/Baichuan-13B-Chat",
        "logo": "https://resouces.modelscope.cn/avatar/c74f7a7c-f4d1-4ef0-89ca-b6f8e71e800a.png"
      },
      {
        "id": 14,
        "name": "百川2-13B-对话模型",
        "desc": "Baichuan 2 是百川智能推出的新一代开源大语言模型，采用 2.6 万亿 Tokens 的高质量语料训练。Baichuan 2 在多个权威的中文、英文和多语言的通用、领域 benchmark 上取得同尺寸最佳的效果。",
        "modelscope": "https://modelscope.cn/models/baichuan-inc/Baichuan2-13B-Chat/summary",
        "huggingface": "https://huggingface.co/baichuan-inc/Baichuan2-13B-Chat",
        "logo": "https://resouces.modelscope.cn/avatar/c74f7a7c-f4d1-4ef0-89ca-b6f8e71e800a.png"
      },
      {
        "id": 15,
        "name": "百川13B模型",
        "desc": "Baichuan-13B-Base为Baichuan-13B系列模型中的预训练版本，经过对齐后的模型可见Baichuan-13B-Chat。",
        "modelscope": "https://modelscope.cn/models/baichuan-inc/Baichuan-13B-Base/summary",
        "huggingface": "https://huggingface.co/baichuan-inc/Baichuan-13B-Base",
        "logo": "https://resouces.modelscope.cn/avatar/c74f7a7c-f4d1-4ef0-89ca-b6f8e71e800a.png"
      },
      {
        "id": 16,
        "name": "百川2-7B-对话模型",
        "desc": "Baichuan 2 是百川智能推出的新一代开源大语言模型，采用 2.6 万亿 Tokens 的高质量语料训练。Baichuan 2 在多个权威的中文、英文和多语言的通用、领域 benchmark 上取得同尺寸最佳的效果。",
        "modelscope": "https://modelscope.cn/models/baichuan-inc/Baichuan2-7B-Chat/summary",
        "huggingface": "https://huggingface.co/baichuan-inc/Baichuan2-7B-Chat",
        "logo": "https://resouces.modelscope.cn/avatar/c74f7a7c-f4d1-4ef0-89ca-b6f8e71e800a.png"
      },
      {
        "id": 17,
        "name": "百川-7B",
        "desc": "baichuan-7B是由百川智能开发的一个开源的大规模预训练模型。基于Transformer结构，在大约1.2万亿tokens上训练的70亿参数模型，支持中英双语，上下文窗口长度为4096。在标准的中文和英文权威benchmark（C-EVAL/MMLU）上均取得同尺寸最好的效果。",
        "modelscope": "https://modelscope.cn/models/baichuan-inc/baichuan-7B/summary",
        "huggingface": "https://huggingface.co/baichuan-inc/baichuan-7B",
        "logo": "https://resouces.modelscope.cn/avatar/c74f7a7c-f4d1-4ef0-89ca-b6f8e71e800a.png"
      },
    ]
  },
  {
    "id": 2,
    "name": "虚拟人",
    "type": 1,
    "desc": "小模型",
    "navList": [
      {
        "id": 1,
        "name": "Wav2Lip-HD",
        "desc": " Improving Wav2Lip to achieve High-Fidelity Videos",
        "huggingface": "https://huggingface.co/commanderx/Wav2Lip-HD",
      },
      {
        "id": 2,
        "name": "Wav2Lip",
        "desc": "Accurately Lip-syncing Videos In The Wild",
        "huggingface": "https://huggingface.co/camenduru/Wav2Lip",
      },
      {
        "id": 3,
        "name": "AI-generated-characters",
        "desc": "麻省理工学院媒体实验室（MIT Media Lab）的研究人员开源了一个虚拟角色生成工具。该工具结合了面部、手势、语音和动作领域的人工智能模型，可用于创建各种音频和视频输出，一举登上《Nature Machine Intelligence》。",
        "website": "https://www.media.mit.edu/projects/Ai-generated-characters/overview/",
      },
      {
        "id": 4,
        "name": "Omniverse Audio2Face",
        "desc": "Omniverse Audio2Face可以借助 NVIDIA 深度学习 AI 技术，仅需一个音频来源即可快速轻松生成表情丰富的面部动画。",
        "website": "https://www.nvidia.cn/omniverse/apps/audio2face/",
        logo: "https://www.nvidia.cn/content/nvidiaGDC/cn/zh_CN/omniverse/home/_jcr_content/root/responsivegrid/item_1678703278677/nv_container/nv_container_copy_44/nv_image_copy.coreimg.100.190.png/1694156822711/nvidia-omniverse-audio2face-icon-128-2x.png"
      }
    ]
  }
]
