NLP Course documentation

Questionário de fim de capítulo

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Questionário de fim de capítulo

Ask a Question

1. Qual é a ordem do pipeline para a modelagem de linguagem?

2. Quantas dimensões tem o tensor do Transformer de base, e quais são elas?

3. Qual dos seguintes é um exemplo de Tokenização por sub-palavras?

4. O que é uma model head ?

5. O que seria um AutoModel ?

6. Quais são as técnicas a serem observadas quando realizar batches com sequências de diferentes tamanhos?

7. Qual é o objetivo de aplicar uma função SoftMax à saída de logits para um modelo de classificação sequencial??

8. Qual é o método core da API tokenizer?

9. O que a variável result contém nesta pedaço de código?

from transformers import AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
result = tokenizer.tokenize("Hello!")

10. Tem algo errado com o código abaixo?

from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
model = AutoModel.from_pretrained("gpt2")

encoded = tokenizer("Hey!", return_tensors="pt")
result = model(**encoded)