使用方法
本模型使用educhat-sft-002-data-osm数据,从Ziya训练得到,由于LLaMA对其衍生模型的限制,发布的权重只能包含差异部分,使用前请先按照以下流程转换权重。
Step1:将原始LLaMA权重转换为huggingface版本。
首先下载LLaMA原始权重,然后使用权重转换脚本转换权重。
python src/transformers/models/llama/convert_llama_weights_to_hf.py \
--input_dir /path/to/downloaded/llama/weights --model_size 13B --output_dir /output/LLaMA_hf/13B
Step2:使用解密脚本将增量权重加到原始LLaMA权重上。
python ./decrypt.py --base /path/to/LLAMA_hf/13B --target ./educhat-base-002-13b-decrypt --delta /path/to/educhat-base-002-13b
使用示例
转换权重后,使用示例请参考:https://github.com/icalk-nlp/EduChat#%E4%BD%BF%E7%94%A8%E7%A4%BA%E4%BE%8B
- Downloads last month
- 7
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.