File size: 1,788 Bytes
751936e 814ee6b 751936e 814ee6b 751936e 814ee6b 751936e 814ee6b 751936e 814ee6b 751936e |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 |
# 背景知识
GPT2采用的byte-level BPE,BERT采用的char-level BPE。
- BPE on unicode sequence
- BPE on UTF-8 byte sequence
-
来自 https://huggingface.co/gpt2/tree/main
### BPE的问题
- 直接BPE,会出现 dog. dog! 等合并成一个词。
byte-level BPE
- bpe会把空格拼接到后一个词上,比如 bpe.decode(bpes[1:2]) = ' world',在NER任务上是不是算把空格也标注进去了?
- bpe会把 'world'和' world'视为两个完全不同的token,不好吧?
- 大小写:
### 怎样解决
### GPT2的
# 下载
### 官方
### huggingface = 官方
- [vocab.json](https://huggingface.co/gpt2-large/resolve/main/vocab.json): 50257个kv-pair. https://huggingface.co/gpt2/resolve/main/vocab.json
- [merges.txt](https://huggingface.co/gpt2-large/resolve/main/merges.txt): 50001行,https://huggingface.co/gpt2/resolve/main/merges.txt
- merges.txts是否包含所有的组合?https://github.com/huggingface/transformers/issues/4777
- [tokenizer.json](https://huggingface.co/openai-community/gpt2-large/blob/main/tokenizer.json)
- 这个是给
词典加载 https://github.com/huggingface/transformers/blob/main/src/transformers/models/gpt2/tokenization_gpt2.py
### fairseq = 官方
- [vocab.bpe](https://dl.fbaipublicfiles.com/fairseq/gpt2_bpe/vocab.bpe):50001行
- 等于 hf的 `merges.txt`
- [encoder.json](https://dl.fbaipublicfiles.com/fairseq/gpt2_bpe/encoder.json): 50257个kv-pair
- 等于 hf的 `vocab.json`
- [dict.txt](https://dl.fbaipublicfiles.com/fairseq/gpt2_bpe/dict.txt): 50260行 这是词频,是由fairseq-preprocess生成的 https://github.com/pytorch/fairseq/issues/1186
词典加载 https://github.com/huggingface/transformers/blob/main/src/transformers/models/gpt2/tokenization_gpt2.py
|