--- license: apache-2.0 --- 智鹿是一个基于中文Alpaca2-13B进行二次训练的金融大模型,我们使用大量中英文语料进行增量预训练,同时使用高质量指令数据进行对齐。模型训练的目标是在保持通用能力的前提下,显著提升金融领域的能力。具体细节参考:[智鹿]() # zhilu-LoRA-13B 本项目提供智鹿的`LoRA模块`,提供给已有`Alpaca-2-13B`模型的用户。 用户在使用前,可使用`peft库`进行加载,或与`Alpaca-2-13B`进行合并得到完整模型。 # 快速使用 ```python import torch from transformers import LlamaForCausalLM, LlamaTokenizer from peft import PeftModel model_name_or_path = "" peft_model_path = "" tokenizer = LlamaTokenizer.from_pretrained(model_name_or_path, use_fast=False, legacy=True) model = LlamaForCausalLM.from_pretrained(model_name_or_path, torch_dtype=torch.bfloat16,device_map="auto") if peft_model_path is not None: model = PeftModel.from_pretrained( model, peft_model_path, torch_dtype=( torch.bfloat16 if torch.cuda.is_bf16_supported() else torch.float32 ), ) inputs = tokenizer("什么是A股?", return_tensors="pt").to("cuda") outputs = model.generate(**inputs, max_new_tokens=64, repetition_penalty=1.1) outputs = tokenizer.decode(outputs.cpu()[0][len(inputs.input_ids[0]):], skip_special_tokens=True) print(outputs) ```