NLP Course documentation

단원 마무리 퀴즈

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

단원 마무리 퀴즈

Ask a Question

이번 챕터에서는 정말 많은 내용들을 다뤘습니다! 그러니 모든 세부 사항을 다 이해하지 못했다고 해서 좌절하지 마세요. 다음 챕터에서 다루는 내용은 내부 작동 방식을 이해하는 데에 도움이 될거에요.

그래도 우선, 이번 챕터에서 배운 내용에 대해 확인해보는 시간을 갖도록 하겠습니다!

1. Hub에서 roberta-large-mnli 체크포인트를 검색해 보세요. 이 모델은 어떤 작업을 수행하나요?

2. 다음 코드는 무엇을 반환하나요?

from transformers import pipeline

ner = pipeline("ner", grouped_entities=True)
ner("My name is Sylvain and I work at Hugging Face in Brooklyn.")

3. 다음 예제 코드에서 … 대신 무엇이 들어가야 할까요?

from transformers import pipeline

filler = pipeline("fill-mask", model="bert-base-cased")
result = filler("...")

4. 다음 코드가 실행되지 않는 이유는 무엇일까요?

from transformers import pipeline

classifier = pipeline("zero-shot-classification")
result = classifier("This is a course about the Transformers library")

5. “전이 학습(transfer learning)“이란 무엇을 의미하나요?

6. 언어 모델은 일반적으로 사전 학습시에 레이블을 필요로 하지 않습니다. 이 문장은 참일까요 거짓일까요?

7. 다음 중 “모델(model)”, “구조(architecture)”, “가중치(weights)”에 대해 가장 잘 설명한 것을 고르세요.

8. 다음 중 어떤 모델이 텍스트를 생성하여 프롬프트(prompt)를 완성시키는 데에 가장 적합할까요?

9. 다음 중 어떤 모델이 텍스트 요약에 가장 적합할까요?

10. 다음 중 어떤 모델이 입력 텍스트를 특정 레이블로 분류하는 데에 가장 적합할까요?

11. 다음 중 모델이 편향성(bias)을 갖게 되는 데에 가장 가능성 있는 원인을 모두 고르세요.