--- language: ko license: apache-2.0 --- # team-lucid/t5-v1_1-base-ko [Google's T5](https://ai.googleblog.com/2020/02/exploring-transfer-learning-with-t5.html) Version 1.1 that trained on korean corpus t5-v1_1-base-ko은 한국어 코퍼스에서 학습된 t5 v1.1 모델입니다. OOV을 막기 위해 BBPE를 사용하였으며, HyperCLOVA에서 형태소 분석이 성능을 높히는데 도움이 되는 것을 보고 토크나이저 학습 과정에서 MeCab을 이용해 형태소가 이상하게 토큰화되지 않도록 하였습니다. 이 연구는 구글의 TPU Research Cloud(TRC)를 통해 지원받은 Cloud TPU로 학습되었습니다. ## Usage ```python from transformers import AutoTokenizer, T5ForConditionalGeneration tokenizer = AutoTokenizer.from_pretrained('team-lucid/t5-v1_1-base-ko') model = T5ForConditionalGeneration.from_pretrained('team-lucid/t5-v1_1-base-ko') ```