File size: 2,756 Bytes
cd154c7
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
accelerate launch ^
  --mixed_precision bf16 ^
  --num_cpu_threads_per_process 1 ^
  sd-scripts/flux_train_network.py ^
  --pretrained_model_name_or_path "C:\Users\manag\pinokio\api\fluxgym.git\models\unet\flux1-dev.sft" ^
  --clip_l "C:\Users\manag\pinokio\api\fluxgym.git\models\clip\clip_l.safetensors" ^
  --t5xxl "C:\Users\manag\pinokio\api\fluxgym.git\models\clip\t5xxl_fp16.safetensors" ^
  --ae "C:\Users\manag\pinokio\api\fluxgym.git\models\vae\ae.sft" ^
  --cache_latents_to_disk ^
  --save_model_as safetensors ^
  --sdpa --persistent_data_loader_workers ^
  --max_data_loader_n_workers 2 ^
  --seed 42 ^
  --gradient_checkpointing ^
  --mixed_precision bf16 ^
  --save_precision bf16 ^
  --network_module networks.lora_flux ^
  --network_dim 4 ^
  --optimizer_type adamw8bit ^--sample_prompts="C:\Users\manag\pinokio\api\fluxgym.git\outputs\terrazza-hotel-vitturi\sample_prompts.txt" --sample_every_n_steps="100" ^
  --learning_rate 8e-4 ^
  --cache_text_encoder_outputs ^
  --cache_text_encoder_outputs_to_disk ^
  --fp8_base ^
  --highvram ^
  --max_train_epochs 5 ^
  --save_every_n_epochs 4 ^
  --dataset_config "C:\Users\manag\pinokio\api\fluxgym.git\outputs\terrazza-hotel-vitturi\dataset.toml" ^
  --output_dir "C:\Users\manag\pinokio\api\fluxgym.git\outputs\terrazza-hotel-vitturi" ^
  --output_name terrazza-hotel-vitturi ^
  --timestep_sampling shift ^
  --discrete_flow_shift 3.1582 ^
  --model_prediction_type raw ^
  --guidance_scale 1 ^
  --loss_type l2 ^
  --controlnet False ^
  --cpu_offload_checkpointing  ^
  --dataset_repeats False ^
  --ddp_static_graph  ^
  --ddp_timeout False ^
  --ip_noise_gamma False ^
  --ip_noise_gamma_random_strength  ^
  --keep_tokens_separator False ^
  --log_config  ^
  --lowram  ^
  --lr_decay_steps False ^
  --masked_loss  ^
  --max_bucket_reso False ^
  --mem_eff_attn  ^
  --metadata_author False ^
  --network_train_text_encoder_only  ^
  --network_train_unet_only  ^
  --network_weights False ^
  --no_metadata  ^
  --noise_offset False ^
  --offload_optimizer_nvme_path False ^
  --output_config  ^
  --resolution False ^
  --resume_from_huggingface  ^
  --sample_at_first  ^
  --sample_every_n_epochs False ^
  --sample_sampler False ^
  --save_state  ^
  --save_state_on_train_end  ^
  --scale_weight_norms False ^
  --secondary_separator False ^
  --shuffle_caption  ^
  --skip_until_initial_step  ^
  --t5xxl_max_token_length False ^
  --text_encoder_lr False ^
  --torch_compile  ^
  --training_comment False ^
  --use_8bit_adam  ^
  --use_lion_optimizer  ^
  --v2  ^
  --v_pred_like_loss False ^
  --vae False ^
  --vae_batch_size False ^
  --weighted_captions  ^
  --xformers  ^
  --zero3_init_flag