Prompt 문의

#4
by goreng2 - opened

Chat 버전으로 Finetune 하실 때, Prompt format을 어떻게 하셨는지 궁금합니다.

KuLLM의 포맷을 사용하였습니다

Prompt template라고 표현하는게 더 맞는 것 같습니다.

Llama2-chat 모델의 경우, 아래와 같은 서식을 사용하는 것으로 알고 있습니다. (https://gpus.llm-utils.org/llama-2-prompt-template/)

<s>[INST] <<SYS>>
{your_system_message}
<</SYS>>

{user_message_1} [/INST]

KuLLM의 포맷을 사용하셨다는 말은 위 서식의 {your_system_message}에 Instruction 열 내용을, {user_message_1}에 Input 열 내용을 대입하셨다는 말씀이실까요?

{
"description": "Alpaca-LoRA에서 사용하는 템플릿입니다.",
"prompt_input": "아래는 작업을 설명하는 명령어와 추가 컨텍스트를 제공하는 입력이 짝을 이루는 예제입니다. 요청을 적절히 완료하는 응답을 작성하세요.\n\n### 명령어:\n{instruction}\n\n### 입력:\n{input}\n\n### 응답:\n",
"prompt_no_input": "아래는 작업을 설명하는 명령어입니다. 요청을 적절히 완료하는 응답을 작성하세요.\n\n### 명령어:\n{instruction}\n\n### 응답:\n",
"response_split": "### 응답:"
}
이런식입니다.

감사합니다!

goreng2 changed discussion status to closed

Sign up or log in to comment