Edit model card

风筝航天科普大模型

新闻

  • [2024-05-05] 发布FengZheng-7B-Base以及FengZheng-7B-Chat模型。
  • [2024-05-05] 开放FengZheng-7B-Chat模型在线demo

介绍

本项目基于开源预训练语言模型进行了航天科普领域增量预训练,并在高质量的航天科普对话数据上进行了指令微调,使模型具备了强大的航天科普问题回答能力。 项目开源内容:

  • FengZheng-7B-Base模型
  • FengZheng-7B-Chat模型

    请注意,本项目所开源的模型仍然可能生成包含事实性错误的误导性回复或包含偏见/歧视的有害内容,请谨慎鉴别和使用生成的内容,请勿将生成的有害内容传播至互联网。

模型下载

模型名称 模型大小 基础模型 下载地址 备注
FengZheng-7B-Base 14GB Qwen1.5-7B HuggingFace 基座模型
FengZheng-7B-Chat 14GB Qwen1.5-7B HuggingFace 对话模型

环境需求

  • transformers>=4.37.0

模型推理

您可以使用以下代码进行模型推理。

from transformers import AutoModelForCausalLM, AutoTokenizer

device = "cuda"
model = AutoModelForCausalLM.from_pretrained(
    "MOYER/FengZheng-7B-Chat",
    torch_dtype="auto",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("MOYER/FengZheng-7B-Chat")
prompt = "神舟十七号的宇航员是谁?"
messages = [
    {"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)
generated_ids = model.generate(
    model_inputs.input_ids,
    max_new_tokens=512
)
generated_ids = [
    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

请注意,FengZheng-7B-Base为基座模型,没有经过指令微调,因此指令遵循能力有限。

模型性能

自动评测

我们使用类MMLU数据集的测试方法对FengZheng-7B-Base进行自动评测:

  • A-CMMLU:自构建的500道航天科普多项选择题测试集 下表为FengZheng-7B-Base与其他中文开源模型在A-CMMLU评测数据集上的0-shot结果:
模型名称 A-CMMLU
Qwen/Qwen1.5-14B 0.684
Qwen/Qwen1.5-7B 0.622
FengZheng-7B-Base 0.686

为了保证评测结果的一致性和公平性,我们的评测脚本统一使用CMMLU仓库实现的版本。

人工评测

评测者首先提出一个航天科普问题,评测系统将返回由FengZheng-7B-Chat、gpt-3.5-turbo以及gpt-4-1106-preview生成的三个回复。回复文本的顺序被打乱,对应的模型名称也被隐藏,评测者将对三个回复分别给与1~5分的综合评价分数。评价维度包括事实性、丰富性和科普性等。 我们共收集了100条人工打分记录,具体结果如下:

模型 均分
gpt-4-1106-preview 4.31
gpt-3.5-turbo 3.40
FengZheng-7B-Chat 4.01

未来计划

  • 开源14B版本模型
  • 开源基于llama3训练的模型
  • 增加基于知识库和搜索引擎的RAG组件
  • 探索强化模型问答事实性的偏好对齐方法

引用

如果您觉得本项目对您的研究有所帮助或使用了本项目的代码,请引用本项目:

@misc{FengZheng,
    author = {HIT-SCIR-TG},
    title = {FengZheng: An Open-Source Aerospace Science Popularization Assistant},
    year = {2024},
    publisher = {GitHub},
    journal = {GitHub repository},
    howpublished = {\url{https://github.com/maojinyang/FengZheng}}
}
Downloads last month
3
Safetensors
Model size
7.72B params
Tensor type
FP16
·
Inference API
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.