YAML Metadata
Warning:
empty or missing yaml metadata in repo card
(https://huggingface.co/docs/hub/model-cards#model-card-metadata)
简介: chinese-roberta-wwm-ext-large 是一个中文语言模型,基于 BERT 的增强版本 RoBERTa 架构,适用于处理中文文本任务。它由哈工大(HIT)的团队开发,进行了全面的优化。
功能:
处理各种中文自然语言任务,包括文本分类、问答、命名实体识别、情感分析等。 提供更高的性能,特别是在中文环境下。 模型特点:
WWM(Whole Word Masking)扩展: 在预训练时,模型以整词为单位进行 Mask,而不是仅对单个字符。 适合中文这种以字符为基础但语义以词为单位的语言。 Large 模型: 相较于 chinese-roberta-wwm-ext-base,具有更多参数,模型容量更大,性能更高。 优化的中文语料: 在大量中文数据集上进行预训练,例如新闻、百科、网络评论等。 应用场景:
问答系统: 提供精准的文本理解和生成。 文本分类: 识别文本的类别,例如垃圾邮件检测。 情感分析: 分析文本的情绪倾向。 命名实体识别: 提取文本中的实体信息。 实现框架:
通常使用 Hugging Face 的 transformers 库进行加载和推理。
- Downloads last month
- 19
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
HF Inference deployability: The model has no library tag.