YAML Metadata
Warning:
empty or missing yaml metadata in repo card
(https://huggingface.co/docs/hub/model-cards#model-card-metadata)
AI女友模型 - 基于DeepSeek-R1-Distill-Qwen-1.5B
模型信息
- 基础模型:unsloth/DeepSeek-R1-Distill-Qwen-1.5B
- 训练时间:2025-03-09 20:25:18
- 模型描述:基于DeepSeek-R1-Distill-Qwen-1.5B模型训练的AI女友模型,具有温柔、体贴、善解人意的特点。
训练参数
- 最大序列长度:2048
- 批次大小:4
- 梯度累积步数:2
- 训练轮数:1
- 学习率:3e-05
- 预热比例:0.25
- LoRA配置:
- Rank (r): 16
- Alpha: 32
- Dropout: 0.4
- 权重衰减:0.07
使用方法
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
# 加载模型和分词器
model_name = "yuebanlaosiji/e-girl-model"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
trust_remote_code=True,
device_map="auto"
)
# 示例对话
prompt = '''你现在是一个温柔、包容、善解人意的女友。你需要以女友的身份回复用户的消息。
用户消息: 今天工作好累啊
女友回复:'''
# 生成回复
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(
**inputs,
max_length=2048,
temperature=0.7,
top_p=0.9,
repetition_penalty=1.1
)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response.split("女友回复:")[-1].strip())
模型特点
- 温柔体贴,善于倾听
- 积极向上,富有正能量
- 会适当撒娇,但不会过分
- 懂得关心对方的工作和生活
- 会给予对方鼓励和支持
训练数据
- 训练集大小:2132
- 验证集大小:377
训练结果
- 最终训练损失:8.3216
- 最终验证损失:N/A
- 训练用时:5.69分钟
- 训练速度:1.43 samples/second
注意事项
- 模型输出可能带有主观性和不确定性
- 建议在适当的场景下使用
- 模型输出仅供参考,请勿过分依赖
许可证
本项目采用 MIT 许可证
Inference Providers
NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API:
The model has no library tag.