--- license: apache-2.0 language: - ko datasets: - squarelike/sharegpt_deepl_ko_translation tags: - pytorch - causal-lm --- # poly-ko-1.3b-translate - EleutherAI/polyglot-ko-1.3b을 squarelike/sharegpt_deepl_ko_translation으로 영한 번역만 가능하도록 fine-tuning한 모델 - QRoLA기법으로 fine-tunnig ### 훈련 정보 - Epoch: 1 - learning-rate: 3e-4 - batch_size: 3 - Lora r: 8 - Lora target modules: query_key_value 3090GPU 1대로 훈련했습니다.