ThePioneer commited on
Commit
07a999a
1 Parent(s): 0ec69be

Upload 8 files

Browse files

Uploaded some small files while prepareing the ckpt.

00060-1876616744-art by yaguru magiku, A teenage girl wearing a black yukata, angry smile, in the style of Kyoto Animation in the 2010s, official.png ADDED
00062-1876616746-art by yaguru magiku, A teenage girl wearing a black yukata, angry smile, in the style of Kyoto Animation in the 2010s, official.png ADDED
00068-69522375-art by yaguru magiku, A teenage girl wearing a black yukata, angry smile, in the style of Kyoto Animation in the 2010s, official.png ADDED
00071-69522378-art by yaguru magiku, A teenage girl wearing a black yukata, angry smile, in the style of Kyoto Animation in the 2010s, official.png ADDED
License_en.md ADDED
@@ -0,0 +1,39 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # Section I: PREAMBLE
2
+ Multimodal generative models are being widely adopted and used, and have the potential to transform the way artists, among other individuals, conceive and benefit from AI or ML technologies as a tool for content creation.
3
+
4
+ Notwithstanding the current and potential benefits that these artifacts can bring to society at large, there are also concerns about potential misuses of them, either due to their technical limitations or ethical considerations.
5
+
6
+ In short, this license strives for the open, responsible, **AND LIBERTARIAN** downstream use of the accompanying model. When it comes to the open character, we took inspiration from open source permissive licenses regarding the grant of IP rights. Referring to the downstream responsible use, we added use-based restrictions not permitting the use of the Model in very specific scenarios, in order for the licensor to be able to enforce the license in case potential misuses of the Model may occur. At the same time, we strive to promote open and responsible research on generative models for art and content generation. <u>Be aware that both points are interpreted and reconsidered under a libertarian point of view, compared to the original CreativeML Open RAIL-M license.</u>
7
+
8
+ Even though downstream derivative versions of the model could be released under different licensing terms, the latter will always have to include - at minimum - the same use-based restrictions <u>and the same open permissions</u> as the ones in the original license (this license). We believe in the intersection between open and responsible AI development; thus, this License aims to strike a balance between both in order to enable responsible open-science in the field of AI.
9
+
10
+ This License governs the use of the model (and its derivatives) and is informed by the model card associated with the model.
11
+
12
+ NOW THEREFORE, You and Licensor agree as follows:
13
+
14
+ 1. Definitions
15
+
16
+ <u>Same as the original CreativeML Open RAIL-M license (the version of [commit hash:2f3698d09ceb9ff046d11f6ec4ac42269c44267e](https://huggingface.co/spaces/CompVis/stable-diffusion-license/commit/2f3698d09ceb9ff046d11f6ec4ac42269c44267e#d2h-177213), unless otherwise noted).</u>
17
+
18
+ # Section II: INTELLECTUAL PROPERTY RIGHTS
19
+
20
+ <u>Same as the original CreativeML Open RAIL-M license.</u>
21
+
22
+ # Section III: CONDITIONS OF USAGE, DISTRIBUTION AND REDISTRIBUTION
23
+
24
+ 4. <u>Same as the original CreativeML Open RAIL-M license.</u>
25
+ 5. <u>Same as the original CreativeML Open RAIL-M license.</u>
26
+ 6. The Output You Generate. <u>Including</u> as set forth herein, Licensor claims no rights in the Output You generate using the Model. You are accountable for the Output You generate, and <u>any users including but not limited to You are accountable for its own subsequent uses</u>. No use of the Output can contravene any provision as stated in the License.
27
+ **The Output You Generate by the Model, Derivatives of the Model and Complementary Material must be distributed and redistibuted under Public Domain (CC0 1.0). Restricting others' use is not part of Your "use."**
28
+ As for the derivatives of the Output, You or any user may claim under Your or their jurisdiction law and regulation. **However, note that claiming the copyright on the Output itself by hiding the model You generated the Output is against the license.**
29
+
30
+ # Section IV: OTHER PROVISIONS
31
+ <u>Same as the original CreativeML Open RAIL-M license.</u>
32
+
33
+ END OF TERMS AND CONDITIONS
34
+
35
+
36
+ # Attachment A
37
+ ## Use Restrictions
38
+ - <u>Same as the original CreativeML Open RAIL-M license.</u>
39
+ - **However, the Licensor judge violation of law or regulation by and only by conviction per the presumption of innocence.**
License_ja.md ADDED
@@ -0,0 +1,39 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # 第一節: 前文
2
+ マルチモーダル生成モデルは広く需要・使用されており、アーティストやその他の個人が人工知能(AI)や機械学習(ML)の技術から、コンテンツ創造のためのツールとしての恩恵や着想を得る方法を変える潜在性を秘めている。
3
+
4
+ 現在または将来的にこれらの人工物がもたらしうる恩恵は大きいが、一方で技術的制約もしくは倫理的な配慮による、潜在的な誤用への懸念も存在する。
5
+
6
+ 要約すると、このライセンスはオープンで責任があり、**かつ最大限自由な**同梱モデルの下流での利用を目指すことに努めたものである。
7
+ オープンな性格に関しては、知財権の許諾の観点で、オープンソースな許諾ライセンスに着想を得たものである。
8
+ 下流での責任ある利用に関して述べると、潜在的なモデルの誤用が万一発生しうる場合に、ライセンス者がライセンスに従うことを強制できるように、利用ベースの許可されないモデル利用例を、具体的なシナリオによって追加したものである。
9
+ <u>いずれの点も、元のCreativeML Open RAIL-Mと比較して、リバタリアン的な観点から解釈・再考慮されている事に注意されたい。</u>
10
+
11
+ モデルの下流の派生バージョンは異なるライセンス規約で配布することが可能だが、その場合でも、最低限、元のライセンス(本ライセンス)同じ用例ベース制限 <u>及び同程度の自由な許諾</u> を含まなければいけない。私たちは、オープンさと責任あるAI開発が両立することを信じている。それ故、このライセンスはAIの領域で、責任のあるオープンサイエンスが可能となるように、両者のバランスをとることを意図したものである。
12
+
13
+ このライセンスはモデル(とその派生物)の利用を統べるものであり、各モデルに紐づけられたモデルカードによって通知されるものとする。
14
+
15
+ さて、上記ゆえに、あなたとライセンス者は、以下の内容に同意するものとする。
16
+
17
+ 1. 定義
18
+
19
+ <u>元のCreativeML Open RAIL-Mライセンスと同一とする(特記なき限り、[コミットハッシュ:2f3698d09ceb9ff046d11f6ec4ac42269c44267e](https://huggingface.co/spaces/CompVis/stable-diffusion-license/commit/2f3698d09ceb9ff046d11f6ec4ac42269c44267e#d2h-177213)版のライセンスに準拠するものとする)。</u>
20
+
21
+ # 第二節: 知的財産権
22
+ <u>元のCreativeML Open RAIL-Mライセンスと同一とする。</u>
23
+
24
+ # 第三節: 利用、配布及び再配布の条件
25
+ 4. <u>元のCreativeML Open RAIL-Mライセンスと同一とする。</u>
26
+ 5. <u>元のCreativeML Open RAIL-Mライセンスと同一とする。</u>
27
+ 6. (生成した出力)ここに設置してあるもの<u>も含め</u>、ライセンス者はモデルを使用して生成した出力について、一切の権利を主張しない。あなたはあなたの生成した出力について責任を負い、あなた<u>及び任意の出力の利用者は、各自のその後の生成物の利用について責任を負う</u>。出力の利用は、本ライセンスのいかなる規定にも反してはならない。
28
+ **本モデル、派生モデル及びその補足材料によって生成した出力は、パブリック・ドメイン(CC0 1.0)で頒布・再頒布しなくてはならない。他人の利用を制限することは、あなたの「利用」には含まれない。**
29
+ 生成した出力の派生物については、あなたもしくはその利用者の所轄法に基づき、著作権を主張しても構わないが、**出力それ自体についてモデルを隠して著作権を主張することはライセンス違反であることに注意すること。**
30
+
31
+ # 第四節: その他規則
32
+ <u>元のCreativeML Open RAIL-Mライセンスと同一とする。</u>
33
+
34
+ 以上
35
+
36
+ # 付則A
37
+ ## 利用制限
38
+ - <u>元のCreativeML Open RAIL-Mライセンスと同一とする。</u>
39
+ - **ただし、法令違反については、無罪推定の原則に基づき、有罪確定を以て、またそれのみを以てライセンス者は判定する。**
MoeHassanVmix03_V2.yaml ADDED
@@ -0,0 +1,70 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ model:
2
+ base_learning_rate: 1.0e-04
3
+ target: ldm.models.diffusion.ddpm.LatentDiffusion
4
+ params:
5
+ linear_start: 0.00085
6
+ linear_end: 0.0120
7
+ num_timesteps_cond: 1
8
+ log_every_t: 200
9
+ timesteps: 1000
10
+ first_stage_key: "jpg"
11
+ cond_stage_key: "txt"
12
+ image_size: 64
13
+ channels: 4
14
+ cond_stage_trainable: false # Note: different from the one we trained before
15
+ conditioning_key: crossattn
16
+ monitor: val/loss_simple_ema
17
+ scale_factor: 0.18215
18
+ use_ema: False
19
+
20
+ scheduler_config: # 10000 warmup steps
21
+ target: ldm.lr_scheduler.LambdaLinearScheduler
22
+ params:
23
+ warm_up_steps: [ 10000 ]
24
+ cycle_lengths: [ 10000000000000 ] # incredibly large number to prevent corner cases
25
+ f_start: [ 1.e-6 ]
26
+ f_max: [ 1. ]
27
+ f_min: [ 1. ]
28
+
29
+ unet_config:
30
+ target: ldm.modules.diffusionmodules.openaimodel.UNetModel
31
+ params:
32
+ image_size: 32 # unused
33
+ in_channels: 4
34
+ out_channels: 4
35
+ model_channels: 320
36
+ attention_resolutions: [ 4, 2, 1 ]
37
+ num_res_blocks: 2
38
+ channel_mult: [ 1, 2, 4, 4 ]
39
+ num_heads: 8
40
+ use_spatial_transformer: True
41
+ transformer_depth: 1
42
+ context_dim: 768
43
+ use_checkpoint: True
44
+ legacy: False
45
+
46
+ first_stage_config:
47
+ target: ldm.models.autoencoder.AutoencoderKL
48
+ params:
49
+ embed_dim: 4
50
+ monitor: val/rec_loss
51
+ ddconfig:
52
+ double_z: true
53
+ z_channels: 4
54
+ resolution: 256
55
+ in_channels: 3
56
+ out_ch: 3
57
+ ch: 128
58
+ ch_mult:
59
+ - 1
60
+ - 2
61
+ - 4
62
+ - 4
63
+ num_res_blocks: 2
64
+ attn_resolutions: []
65
+ dropout: 0.0
66
+ lossconfig:
67
+ target: torch.nn.Identity
68
+
69
+ cond_stage_config:
70
+ target: ldm.modules.encoders.modules.FrozenCLIPEmbedder
MoeHassanVmix03_V3.yaml ADDED
@@ -0,0 +1,70 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ model:
2
+ base_learning_rate: 1.0e-04
3
+ target: ldm.models.diffusion.ddpm.LatentDiffusion
4
+ params:
5
+ linear_start: 0.00085
6
+ linear_end: 0.0120
7
+ num_timesteps_cond: 1
8
+ log_every_t: 200
9
+ timesteps: 1000
10
+ first_stage_key: "jpg"
11
+ cond_stage_key: "txt"
12
+ image_size: 64
13
+ channels: 4
14
+ cond_stage_trainable: false # Note: different from the one we trained before
15
+ conditioning_key: crossattn
16
+ monitor: val/loss_simple_ema
17
+ scale_factor: 0.18215
18
+ use_ema: False
19
+
20
+ scheduler_config: # 10000 warmup steps
21
+ target: ldm.lr_scheduler.LambdaLinearScheduler
22
+ params:
23
+ warm_up_steps: [ 10000 ]
24
+ cycle_lengths: [ 10000000000000 ] # incredibly large number to prevent corner cases
25
+ f_start: [ 1.e-6 ]
26
+ f_max: [ 1. ]
27
+ f_min: [ 1. ]
28
+
29
+ unet_config:
30
+ target: ldm.modules.diffusionmodules.openaimodel.UNetModel
31
+ params:
32
+ image_size: 32 # unused
33
+ in_channels: 4
34
+ out_channels: 4
35
+ model_channels: 320
36
+ attention_resolutions: [ 4, 2, 1 ]
37
+ num_res_blocks: 2
38
+ channel_mult: [ 1, 2, 4, 4 ]
39
+ num_heads: 8
40
+ use_spatial_transformer: True
41
+ transformer_depth: 1
42
+ context_dim: 768
43
+ use_checkpoint: True
44
+ legacy: False
45
+
46
+ first_stage_config:
47
+ target: ldm.models.autoencoder.AutoencoderKL
48
+ params:
49
+ embed_dim: 4
50
+ monitor: val/rec_loss
51
+ ddconfig:
52
+ double_z: true
53
+ z_channels: 4
54
+ resolution: 256
55
+ in_channels: 3
56
+ out_ch: 3
57
+ ch: 128
58
+ ch_mult:
59
+ - 1
60
+ - 2
61
+ - 4
62
+ - 4
63
+ num_res_blocks: 2
64
+ attn_resolutions: []
65
+ dropout: 0.0
66
+ lossconfig:
67
+ target: torch.nn.Identity
68
+
69
+ cond_stage_config:
70
+ target: ldm.modules.encoders.modules.FrozenCLIPEmbedder