Edit model card

skt/kogpt2-base-v2를 공개된 한국어 대화 데이터셋으로 파인튜닝한 모델입니다.

  • AIHub 주제별대화, 트위터, 감정대화, SNS대화
  • 국립국어원 모두의 말뭉치 온라인대화
  • 이전에 제가 만든 kodialogpt-v0는 AIHub 주제별대화 8만건 가량만을 이용했지만, 이 모델은 총 170만개의 대화 데이터를 갖고 1에폭 학습시킨 모델입니다.
  • 학습 코드: https://github.com/HeegyuKim/open-domain-dialog

사용예시

generator = pipeline("text-generation", model="heegyu/kodialogpt-v1")
generation_args = dict(
    repetition_penalty=1.3,
    no_repeat_ngram_size=4,
    eos_token_id=375, # \n
    max_new_tokens=32,
    do_sample=True,
    top_p=0.7,
    early_stopping=True
)
generator(
    ["0 : **는 게임 좋아하니\n1 :",
    "0 : 어제 강남에서 살인사건 났대 ㅜㅜ 너무 무서워\n1 : 헐 왜? 무슨 일 있었어?\n0 : 사진보니까 막 피흘리는 사람있고 경찰들이 떠서 제압하고 난리도 아니었다던데??\n1 :",
    "0 : 자기야 어제는 나한테 왜 그랬어?\n1 : 뭔 일 있었어?\n0 : 어떻게 나한테 말도 없이 그럴 수 있어? 나 진짜 실망했어\n1 : "],
    **generation_args
)

결과

[[{'generated_text': '0 : **는 게임 좋아하니\n1 : 엉... 게임은 맨날 하는데  내일도 하겠지...? ᄏᄏ'}],
 [{'generated_text': '0 : 어제 강남에서 살인사건 났대 ㅜㅜ 너무 무서워\n1 : 헐 왜? 무슨 일 있었어?\n0 : 사진보니까 막 피흘리는 사람있고 경찰들이 떠서 제압하고 난리도 아니었다던데??\n1 : 와 대박이네... 그게 가능하다니.. 얼마나 무섭고 놀라울까..'}],
 [{'generated_text': '0 : 자기야 어제는 나한테 왜 그랬어?\n1 : 뭔 일 있었어?\n0 : 어떻게 나한테 말도 없이 그럴 수 있어? 나 진짜 실망했어\n1 : ᄏᄏ뭐가? 누가?'}]]

학습에 사용한 하이퍼파라미터

Downloads last month
2,132
Inference API
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Space using heegyu/kodialogpt-v1 1