resume: false
device: cuda
use_amp: false
seed: 1000
dataset_repo_id: yanivmel1/new_dataset_cube
video_backend: pyav
training:
  offline_steps: 200000
  num_workers: 4
  batch_size: 8
  eval_freq: -1
  log_freq: 100
  save_checkpoint: true
  save_freq: 10000
  online_steps: 0
  online_rollout_n_episodes: 1
  online_rollout_batch_size: 1
  online_steps_between_rollouts: 1
  online_sampling_ratio: 0.5
  online_env_seed: null
  online_buffer_capacity: null
  online_buffer_seed_size: 0
  do_online_rollout_async: false
  image_transforms:
    enable: false
    max_num_transforms: 3
    random_order: false
    brightness:
      weight: 1
      min_max:
      - 0.8
      - 1.2
    contrast:
      weight: 1
      min_max:
      - 0.8
      - 1.2
    saturation:
      weight: 1
      min_max:
      - 0.5
      - 1.5
    hue:
      weight: 1
      min_max:
      - -0.05
      - 0.05
    sharpness:
      weight: 1
      min_max:
      - 0.8
      - 1.2
  lr: 1.0e-05
  lr_backbone: 1.0e-05
  weight_decay: 0.0001
  grad_clip_norm: 10
  delta_timestamps:
    action:
    - 0.0
    - 0.03333333333333333
    - 0.06666666666666667
    - 0.1
    - 0.13333333333333333
    - 0.16666666666666666
    - 0.2
    - 0.23333333333333334
    - 0.26666666666666666
    - 0.3
    - 0.3333333333333333
    - 0.36666666666666664
    - 0.4
    - 0.43333333333333335
    - 0.4666666666666667
    - 0.5
    - 0.5333333333333333
    - 0.5666666666666667
    - 0.6
    - 0.6333333333333333
    - 0.6666666666666666
    - 0.7
    - 0.7333333333333333
    - 0.7666666666666667
    - 0.8
    - 0.8333333333333334
    - 0.8666666666666667
    - 0.9
    - 0.9333333333333333
    - 0.9666666666666667
    - 1.0
    - 1.0333333333333334
    - 1.0666666666666667
    - 1.1
    - 1.1333333333333333
    - 1.1666666666666667
    - 1.2
    - 1.2333333333333334
    - 1.2666666666666666
    - 1.3
    - 1.3333333333333333
    - 1.3666666666666667
    - 1.4
    - 1.4333333333333333
    - 1.4666666666666666
    - 1.5
    - 1.5333333333333334
    - 1.5666666666666667
    - 1.6
    - 1.6333333333333333
    - 1.6666666666666667
    - 1.7
    - 1.7333333333333334
    - 1.7666666666666666
    - 1.8
    - 1.8333333333333333
    - 1.8666666666666667
    - 1.9
    - 1.9333333333333333
    - 1.9666666666666666
    - 2.0
    - 2.033333333333333
    - 2.066666666666667
    - 2.1
    - 2.1333333333333333
    - 2.1666666666666665
    - 2.2
    - 2.2333333333333334
    - 2.2666666666666666
    - 2.3
    - 2.3333333333333335
    - 2.3666666666666667
    - 2.4
    - 2.433333333333333
    - 2.466666666666667
    - 2.5
    - 2.533333333333333
    - 2.566666666666667
    - 2.6
    - 2.6333333333333333
    - 2.6666666666666665
    - 2.7
    - 2.7333333333333334
    - 2.7666666666666666
    - 2.8
    - 2.8333333333333335
    - 2.8666666666666667
    - 2.9
    - 2.933333333333333
    - 2.966666666666667
    - 3.0
    - 3.033333333333333
    - 3.066666666666667
    - 3.1
    - 3.1333333333333333
    - 3.1666666666666665
    - 3.2
    - 3.2333333333333334
    - 3.2666666666666666
    - 3.3
eval:
  n_episodes: 50
  batch_size: 50
  use_async_envs: false
wandb:
  enable: false
  disable_artifact: false
  project: lerobot
  notes: ''
fps: 30
env:
  name: real_world
  task: null
  state_dim: 6
  action_dim: 6
  fps: ${fps}
override_dataset_stats:
  observation.images.laptop:
    mean:
    - - - 0.485
    - - - 0.456
    - - - 0.406
    std:
    - - - 0.229
    - - - 0.224
    - - - 0.225
  observation.images.phone:
    mean:
    - - - 0.485
    - - - 0.456
    - - - 0.406
    std:
    - - - 0.229
    - - - 0.224
    - - - 0.225
policy:
  name: act
  n_obs_steps: 1
  chunk_size: 100
  n_action_steps: 100
  input_shapes:
    observation.images.laptop:
    - 3
    - 480
    - 640
    observation.images.phone:
    - 3
    - 480
    - 640
    observation.state:
    - ${env.state_dim}
  output_shapes:
    action:
    - ${env.action_dim}
  input_normalization_modes:
    observation.images.laptop: mean_std
    observation.images.phone: mean_std
    observation.state: mean_std
  output_normalization_modes:
    action: mean_std
  vision_backbone: resnet18
  pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
  replace_final_stride_with_dilation: false
  pre_norm: false
  dim_model: 512
  n_heads: 8
  dim_feedforward: 3200
  feedforward_activation: relu
  n_encoder_layers: 4
  n_decoder_layers: 1
  use_vae: true
  latent_dim: 32
  n_vae_encoder_layers: 4
  temporal_ensemble_momentum: null
  dropout: 0.1
  kl_weight: 10.0