Wang commited on
Commit
82fabb8
1 Parent(s): 6137644

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +24 -0
README.md CHANGED
@@ -44,3 +44,27 @@ euler a 512 768 30 8
44
  ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00094-1695754733.png)
45
  ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00085-2917489576.png)
46
  ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00080-1445261270.png)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
44
  ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00094-1695754733.png)
45
  ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00085-2917489576.png)
46
  ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00080-1445261270.png)
47
+
48
+
49
+ 还有一个是前标为30的,这个可以使用更低的epoch的版本。
50
+
51
+ ## 总结
52
+ 因为数据集相对较少,并且是没有特别设置提示词全部标注
53
+ 所以会遇到颜色污染的问题,当然,这个是很好解决的
54
+ 1.减少词相关力度,这个方法同样适用于解决lora相互影响造成的颜色污染(使用latentcouple时)
55
+
56
+ 2.降低lora权重 通常范围是0.6-0.8
57
+
58
+ 3.lora分布/灵活控制权重
59
+ 使用https://github.com/a2569875/stable-diffusion-webui-composable-lora
60
+ 对lora进行步数控制,(个人试验过权重控制,但还没有什么经验能总结出来。。。)
61
+
62
+ 4.lora分层,这个是直接去找别人的参数,这里不在赘述,可以在b站大学搜索到相关信息。
63
+
64
+ 前三个方法是我最常用的了
65
+ 希望能够给你带来启发。
66
+
67
+ ### 我该选择什么模型?
68
+ 因为前标很大,并且没有提示词,所以我的建议是使用epoch适中的
69
+ 比如 10左右的,当然,并不是说20以及更高的不能用,只是调起来会相对要明细一些。
70
+ 望采纳。