Edit model card

Chat T5

SourceCode

Chat T5 는 pko-flan-t5-large 를 기반으로 만들었습니다.

KoAlpaca 에서 제공하는 데이터셋과 evolve-instruct 에서 제공하는 데이터셋을 학습했습니다. 좋은 데이터를 공개해주셔서 감사합니다.

Model

Example

from transformers import T5TokenizerFast, T5ForConditionalGeneration
tokenizer = T5TokenizerFast.from_pretrained("paust/pko-chat-t5-large")
model = T5ForConditionalGeneration.from_pretrained("paust/pko-chat-t5-large", device_map='cuda')

prompt_tpl = "사용자가 한 말을 읽고 그에 질문에 답하거나 명령에 응답하는 비서입니다.\n\n사용자:\n{text}\n\n비서:\n"
prompt = prompt_tpl.format(text="한국의 수도는 어디인가요?")
input_ids = tokenizer(prompt, return_tensors='pt').input_ids
logits = model.generate(
    input_ids,
    max_new_tokens=1024,
    temperature=0.5,
    no_repeat_ngram_size=6,
    do_sample=True,
    num_return_sequences=1,
)
text = tokenizer.batch_decode(logits, skip_special_tokens=True)[0]
print(text)  # 한국의 수도는 서울입니다.

License

PAUST에서 만든 pko-t5는 MIT license 하에 공개되어 있습니다.

Downloads last month
251
Safetensors
Model size
820M params
Tensor type
BF16
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.