cadene HF staff commited on
Commit
f2973b9
1 Parent(s): 0ab2f66

Upload folder using huggingface_hub

Browse files
Files changed (4) hide show
  1. README.md +9 -0
  2. config.json +43 -0
  3. config.yaml +215 -0
  4. model.safetensors +3 -0
README.md ADDED
@@ -0,0 +1,9 @@
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - model_hub_mixin
4
+ - pytorch_model_hub_mixin
5
+ ---
6
+
7
+ This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
8
+ - Library: [More Information Needed]
9
+ - Docs: [More Information Needed]
config.json ADDED
@@ -0,0 +1,43 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "chunk_size": 100,
3
+ "dim_feedforward": 3200,
4
+ "dim_model": 512,
5
+ "dropout": 0.1,
6
+ "feedforward_activation": "relu",
7
+ "input_normalization_modes": {
8
+ "observation.images.phone": "mean_std",
9
+ "observation.state": "mean_std"
10
+ },
11
+ "input_shapes": {
12
+ "observation.images.phone": [
13
+ 3,
14
+ 480,
15
+ 640
16
+ ],
17
+ "observation.state": [
18
+ 6
19
+ ]
20
+ },
21
+ "kl_weight": 10.0,
22
+ "latent_dim": 32,
23
+ "n_action_steps": 100,
24
+ "n_decoder_layers": 1,
25
+ "n_encoder_layers": 4,
26
+ "n_heads": 8,
27
+ "n_obs_steps": 1,
28
+ "n_vae_encoder_layers": 4,
29
+ "output_normalization_modes": {
30
+ "action": "mean_std"
31
+ },
32
+ "output_shapes": {
33
+ "action": [
34
+ 6
35
+ ]
36
+ },
37
+ "pre_norm": false,
38
+ "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
39
+ "replace_final_stride_with_dilation": false,
40
+ "temporal_ensemble_momentum": null,
41
+ "use_vae": true,
42
+ "vision_backbone": "resnet18"
43
+ }
config.yaml ADDED
@@ -0,0 +1,215 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ resume: false
2
+ device: cuda
3
+ use_amp: false
4
+ seed: 1000
5
+ dataset_repo_id: lerobot/koch_pick_place_lego_simple_v2
6
+ video_backend: pyav
7
+ training:
8
+ offline_steps: 80000
9
+ online_steps: 0
10
+ online_steps_between_rollouts: 1
11
+ online_sampling_ratio: 0.5
12
+ online_env_seed: ???
13
+ eval_freq: -1
14
+ log_freq: 100
15
+ save_checkpoint: true
16
+ save_freq: 10000
17
+ num_workers: 4
18
+ batch_size: 8
19
+ image_transforms:
20
+ enable: false
21
+ max_num_transforms: 3
22
+ random_order: false
23
+ brightness:
24
+ weight: 1
25
+ min_max:
26
+ - 0.8
27
+ - 1.2
28
+ contrast:
29
+ weight: 1
30
+ min_max:
31
+ - 0.8
32
+ - 1.2
33
+ saturation:
34
+ weight: 1
35
+ min_max:
36
+ - 0.5
37
+ - 1.5
38
+ hue:
39
+ weight: 1
40
+ min_max:
41
+ - -0.05
42
+ - 0.05
43
+ sharpness:
44
+ weight: 1
45
+ min_max:
46
+ - 0.8
47
+ - 1.2
48
+ lr: 1.0e-05
49
+ lr_backbone: 1.0e-05
50
+ weight_decay: 0.0001
51
+ grad_clip_norm: 10
52
+ delta_timestamps:
53
+ action:
54
+ - 0.0
55
+ - 0.03333333333333333
56
+ - 0.06666666666666667
57
+ - 0.1
58
+ - 0.13333333333333333
59
+ - 0.16666666666666666
60
+ - 0.2
61
+ - 0.23333333333333334
62
+ - 0.26666666666666666
63
+ - 0.3
64
+ - 0.3333333333333333
65
+ - 0.36666666666666664
66
+ - 0.4
67
+ - 0.43333333333333335
68
+ - 0.4666666666666667
69
+ - 0.5
70
+ - 0.5333333333333333
71
+ - 0.5666666666666667
72
+ - 0.6
73
+ - 0.6333333333333333
74
+ - 0.6666666666666666
75
+ - 0.7
76
+ - 0.7333333333333333
77
+ - 0.7666666666666667
78
+ - 0.8
79
+ - 0.8333333333333334
80
+ - 0.8666666666666667
81
+ - 0.9
82
+ - 0.9333333333333333
83
+ - 0.9666666666666667
84
+ - 1.0
85
+ - 1.0333333333333334
86
+ - 1.0666666666666667
87
+ - 1.1
88
+ - 1.1333333333333333
89
+ - 1.1666666666666667
90
+ - 1.2
91
+ - 1.2333333333333334
92
+ - 1.2666666666666666
93
+ - 1.3
94
+ - 1.3333333333333333
95
+ - 1.3666666666666667
96
+ - 1.4
97
+ - 1.4333333333333333
98
+ - 1.4666666666666666
99
+ - 1.5
100
+ - 1.5333333333333334
101
+ - 1.5666666666666667
102
+ - 1.6
103
+ - 1.6333333333333333
104
+ - 1.6666666666666667
105
+ - 1.7
106
+ - 1.7333333333333334
107
+ - 1.7666666666666666
108
+ - 1.8
109
+ - 1.8333333333333333
110
+ - 1.8666666666666667
111
+ - 1.9
112
+ - 1.9333333333333333
113
+ - 1.9666666666666666
114
+ - 2.0
115
+ - 2.033333333333333
116
+ - 2.066666666666667
117
+ - 2.1
118
+ - 2.1333333333333333
119
+ - 2.1666666666666665
120
+ - 2.2
121
+ - 2.2333333333333334
122
+ - 2.2666666666666666
123
+ - 2.3
124
+ - 2.3333333333333335
125
+ - 2.3666666666666667
126
+ - 2.4
127
+ - 2.433333333333333
128
+ - 2.466666666666667
129
+ - 2.5
130
+ - 2.533333333333333
131
+ - 2.566666666666667
132
+ - 2.6
133
+ - 2.6333333333333333
134
+ - 2.6666666666666665
135
+ - 2.7
136
+ - 2.7333333333333334
137
+ - 2.7666666666666666
138
+ - 2.8
139
+ - 2.8333333333333335
140
+ - 2.8666666666666667
141
+ - 2.9
142
+ - 2.933333333333333
143
+ - 2.966666666666667
144
+ - 3.0
145
+ - 3.033333333333333
146
+ - 3.066666666666667
147
+ - 3.1
148
+ - 3.1333333333333333
149
+ - 3.1666666666666665
150
+ - 3.2
151
+ - 3.2333333333333334
152
+ - 3.2666666666666666
153
+ - 3.3
154
+ eval:
155
+ n_episodes: 50
156
+ batch_size: 50
157
+ use_async_envs: false
158
+ wandb:
159
+ enable: true
160
+ disable_artifact: false
161
+ project: lerobot
162
+ notes: ''
163
+ fps: 30
164
+ env:
165
+ name: real_world
166
+ task: null
167
+ state_dim: 6
168
+ action_dim: 6
169
+ fps: ${fps}
170
+ override_dataset_stats:
171
+ observation.images.phone:
172
+ mean:
173
+ - - - 0.485
174
+ - - - 0.456
175
+ - - - 0.406
176
+ std:
177
+ - - - 0.229
178
+ - - - 0.224
179
+ - - - 0.225
180
+ policy:
181
+ name: act
182
+ n_obs_steps: 1
183
+ chunk_size: 100
184
+ n_action_steps: 100
185
+ input_shapes:
186
+ observation.images.phone:
187
+ - 3
188
+ - 480
189
+ - 640
190
+ observation.state:
191
+ - ${env.state_dim}
192
+ output_shapes:
193
+ action:
194
+ - ${env.action_dim}
195
+ input_normalization_modes:
196
+ observation.images.phone: mean_std
197
+ observation.state: mean_std
198
+ output_normalization_modes:
199
+ action: mean_std
200
+ vision_backbone: resnet18
201
+ pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
202
+ replace_final_stride_with_dilation: false
203
+ pre_norm: false
204
+ dim_model: 512
205
+ n_heads: 8
206
+ dim_feedforward: 3200
207
+ feedforward_activation: relu
208
+ n_encoder_layers: 4
209
+ n_decoder_layers: 1
210
+ use_vae: true
211
+ latent_dim: 32
212
+ n_vae_encoder_layers: 4
213
+ temporal_ensemble_momentum: null
214
+ dropout: 0.1
215
+ kl_weight: 10.0
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:9dc089e74eba096882535702d63f7bb9486086310f7f082707f0300ad7923e3c
3
+ size 206700800