Cho em hỏi vì sao task này đánh giá theo cloze prompt?

#2
by rin2401 - opened

https://github.com/hieunguyen1053/lm-evaluation-harness/blob/master/lm_eval/tasks/grade_12_exams_vi.py

out_doc = {
    "id": doc["id"],
    "query": "Question: " + doc["question"] + "\nAnswer:",
    "choices": doc["choices"]["text"],
    "gold": ["A", "B", "C", "D"].index(doc["answerKey"].strip()),
}

Xin trả lời thắc mắc của bạn, task này vẫn đánh giá giống các bộ Multiple choices khác như Hellswag, MMLU, ...
Không biết mình đã trả lời đúng ý bạn chưa.

Nhưng task MMLU thì có để thêm các lựa chọn vào prompt
Vì mình thấy nó cũng là trắc nghiệm như MMLU nhưng MMLU thì dùng multiple choice prompt
https://github.com/hieunguyen1053/lm-evaluation-harness/blob/master/lm_eval/tasks/hendrycks_test.py

def _process_doc(self, doc):
    def format_example(doc, keys):
        """
        <prompt>
        A. <choice1>
        B. <choice2>
        C. <choice3>
        D. <choice4>
        Answer:
        """

        question = doc["question"].strip()
        choices = "".join(
            [f"{key}. {choice}\n" for key, choice in zip(keys, doc["choices"])]
        )
        prompt = f"{question}\n{choices}Answer:"
        return prompt

    keys = ["A", "B", "C", "D"]
    return {
        "query": format_example(doc, keys),
        "choices": keys,
        "gold": doc["answer"],
    }

lí do BTC không ưu tiên format prompt này vì 4 options được liệt kê trong prompt nếu shuffle lên với mỗi order khác nhau thì sẽ đưa ra một kết quả khác nhau. Vì vậy các private test về multiple choices, BTC không sử dụng prompt format này mà sử dụng prompt để tính xác suất answer tương tự cách tính trong paper của GPT-3.

Sign up or log in to comment