m1b commited on
Commit
a651ea2
1 Parent(s): 4f63638

Upload folder using huggingface_hub

Browse files
Files changed (4) hide show
  1. README.md +9 -0
  2. config.json +49 -0
  3. config.yaml +230 -0
  4. model.safetensors +3 -0
README.md ADDED
@@ -0,0 +1,9 @@
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - model_hub_mixin
4
+ - pytorch_model_hub_mixin
5
+ ---
6
+
7
+ This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
8
+ - Library: [More Information Needed]
9
+ - Docs: [More Information Needed]
config.json ADDED
@@ -0,0 +1,49 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "chunk_size": 100,
3
+ "dim_feedforward": 3200,
4
+ "dim_model": 512,
5
+ "dropout": 0.1,
6
+ "feedforward_activation": "relu",
7
+ "input_normalization_modes": {
8
+ "observation.images.laptop": "mean_std",
9
+ "observation.images.phone": "mean_std",
10
+ "observation.state": "mean_std"
11
+ },
12
+ "input_shapes": {
13
+ "observation.images.laptop": [
14
+ 3,
15
+ 480,
16
+ 640
17
+ ],
18
+ "observation.images.phone": [
19
+ 3,
20
+ 480,
21
+ 640
22
+ ],
23
+ "observation.state": [
24
+ 6
25
+ ]
26
+ },
27
+ "kl_weight": 10.0,
28
+ "latent_dim": 32,
29
+ "n_action_steps": 100,
30
+ "n_decoder_layers": 1,
31
+ "n_encoder_layers": 4,
32
+ "n_heads": 8,
33
+ "n_obs_steps": 1,
34
+ "n_vae_encoder_layers": 4,
35
+ "output_normalization_modes": {
36
+ "action": "mean_std"
37
+ },
38
+ "output_shapes": {
39
+ "action": [
40
+ 6
41
+ ]
42
+ },
43
+ "pre_norm": false,
44
+ "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
45
+ "replace_final_stride_with_dilation": false,
46
+ "temporal_ensemble_coeff": null,
47
+ "use_vae": false,
48
+ "vision_backbone": "resnet18"
49
+ }
config.yaml ADDED
@@ -0,0 +1,230 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ resume: false
2
+ device: cuda
3
+ seed: 84
4
+ dataset_repo_id: m1b/koch_pick_red_lego_green_box
5
+ video_backend: pyav
6
+ training:
7
+ offline_steps: 50000
8
+ online_steps: 0
9
+ online_steps_between_rollouts: 1
10
+ online_sampling_ratio: 0.5
11
+ online_env_seed: ???
12
+ eval_freq: -1
13
+ log_freq: 200
14
+ save_checkpoint: true
15
+ save_freq: 20000
16
+ num_workers: 4
17
+ batch_size: 8
18
+ image_transforms:
19
+ enable: true
20
+ max_num_transforms: 3
21
+ random_order: false
22
+ brightness:
23
+ weight: 1
24
+ min_max:
25
+ - 0.8
26
+ - 1.2
27
+ contrast:
28
+ weight: 1
29
+ min_max:
30
+ - 0.8
31
+ - 1.2
32
+ saturation:
33
+ weight: 1
34
+ min_max:
35
+ - 0.5
36
+ - 1.5
37
+ hue:
38
+ weight: 1
39
+ min_max:
40
+ - -0.05
41
+ - 0.05
42
+ sharpness:
43
+ weight: 1
44
+ min_max:
45
+ - 0.8
46
+ - 1.2
47
+ lr: 1.0e-05
48
+ lr_backbone: 1.0e-05
49
+ weight_decay: 0.0001
50
+ grad_clip_norm: 10
51
+ delta_timestamps:
52
+ action:
53
+ - 0.0
54
+ - 0.03333333333333333
55
+ - 0.06666666666666667
56
+ - 0.1
57
+ - 0.13333333333333333
58
+ - 0.16666666666666666
59
+ - 0.2
60
+ - 0.23333333333333334
61
+ - 0.26666666666666666
62
+ - 0.3
63
+ - 0.3333333333333333
64
+ - 0.36666666666666664
65
+ - 0.4
66
+ - 0.43333333333333335
67
+ - 0.4666666666666667
68
+ - 0.5
69
+ - 0.5333333333333333
70
+ - 0.5666666666666667
71
+ - 0.6
72
+ - 0.6333333333333333
73
+ - 0.6666666666666666
74
+ - 0.7
75
+ - 0.7333333333333333
76
+ - 0.7666666666666667
77
+ - 0.8
78
+ - 0.8333333333333334
79
+ - 0.8666666666666667
80
+ - 0.9
81
+ - 0.9333333333333333
82
+ - 0.9666666666666667
83
+ - 1.0
84
+ - 1.0333333333333334
85
+ - 1.0666666666666667
86
+ - 1.1
87
+ - 1.1333333333333333
88
+ - 1.1666666666666667
89
+ - 1.2
90
+ - 1.2333333333333334
91
+ - 1.2666666666666666
92
+ - 1.3
93
+ - 1.3333333333333333
94
+ - 1.3666666666666667
95
+ - 1.4
96
+ - 1.4333333333333333
97
+ - 1.4666666666666666
98
+ - 1.5
99
+ - 1.5333333333333334
100
+ - 1.5666666666666667
101
+ - 1.6
102
+ - 1.6333333333333333
103
+ - 1.6666666666666667
104
+ - 1.7
105
+ - 1.7333333333333334
106
+ - 1.7666666666666666
107
+ - 1.8
108
+ - 1.8333333333333333
109
+ - 1.8666666666666667
110
+ - 1.9
111
+ - 1.9333333333333333
112
+ - 1.9666666666666666
113
+ - 2.0
114
+ - 2.033333333333333
115
+ - 2.066666666666667
116
+ - 2.1
117
+ - 2.1333333333333333
118
+ - 2.1666666666666665
119
+ - 2.2
120
+ - 2.2333333333333334
121
+ - 2.2666666666666666
122
+ - 2.3
123
+ - 2.3333333333333335
124
+ - 2.3666666666666667
125
+ - 2.4
126
+ - 2.433333333333333
127
+ - 2.466666666666667
128
+ - 2.5
129
+ - 2.533333333333333
130
+ - 2.566666666666667
131
+ - 2.6
132
+ - 2.6333333333333333
133
+ - 2.6666666666666665
134
+ - 2.7
135
+ - 2.7333333333333334
136
+ - 2.7666666666666666
137
+ - 2.8
138
+ - 2.8333333333333335
139
+ - 2.8666666666666667
140
+ - 2.9
141
+ - 2.933333333333333
142
+ - 2.966666666666667
143
+ - 3.0
144
+ - 3.033333333333333
145
+ - 3.066666666666667
146
+ - 3.1
147
+ - 3.1333333333333333
148
+ - 3.1666666666666665
149
+ - 3.2
150
+ - 3.2333333333333334
151
+ - 3.2666666666666666
152
+ - 3.3
153
+ eval:
154
+ n_episodes: 1
155
+ batch_size: 1
156
+ use_async_envs: false
157
+ wandb:
158
+ enable: true
159
+ disable_artifact: false
160
+ project: lerobot
161
+ notes: ''
162
+ fps: 30
163
+ env:
164
+ name: koch
165
+ task: Koch-v0
166
+ state_dim: 6
167
+ action_dim: 6
168
+ fps: ${fps}
169
+ gym:
170
+ fps: ${fps}
171
+ override_dataset_stats:
172
+ observation.images.laptop:
173
+ mean:
174
+ - - - 0.485
175
+ - - - 0.456
176
+ - - - 0.406
177
+ std:
178
+ - - - 0.229
179
+ - - - 0.224
180
+ - - - 0.225
181
+ observation.images.phone:
182
+ mean:
183
+ - - - 0.485
184
+ - - - 0.456
185
+ - - - 0.406
186
+ std:
187
+ - - - 0.229
188
+ - - - 0.224
189
+ - - - 0.225
190
+ policy:
191
+ name: act
192
+ n_obs_steps: 1
193
+ chunk_size: 100
194
+ n_action_steps: 100
195
+ input_shapes:
196
+ observation.images.laptop:
197
+ - 3
198
+ - 480
199
+ - 640
200
+ observation.images.phone:
201
+ - 3
202
+ - 480
203
+ - 640
204
+ observation.state:
205
+ - ${env.state_dim}
206
+ output_shapes:
207
+ action:
208
+ - ${env.action_dim}
209
+ input_normalization_modes:
210
+ observation.images.laptop: mean_std
211
+ observation.images.phone: mean_std
212
+ observation.state: mean_std
213
+ output_normalization_modes:
214
+ action: mean_std
215
+ vision_backbone: resnet18
216
+ pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
217
+ replace_final_stride_with_dilation: false
218
+ pre_norm: false
219
+ dim_model: 512
220
+ n_heads: 8
221
+ dim_feedforward: 3200
222
+ feedforward_activation: relu
223
+ n_encoder_layers: 4
224
+ n_decoder_layers: 1
225
+ use_vae: false
226
+ latent_dim: 32
227
+ n_vae_encoder_layers: 4
228
+ temporal_ensemble_momentum: null
229
+ dropout: 0.1
230
+ kl_weight: 10.0
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:67f78fe4d43ffb31ad399de643eba5e929c5c8aef01544a2d8439daa8a780d38
3
+ size 136992792