|
{ |
|
"_name_or_path": "/content/tmp/test-richard_bert_base_uncased", |
|
"architectures": [ |
|
"BertForTokenClassification" |
|
], |
|
"attention_probs_dropout_prob": 0.1, |
|
"directionality": "bidi", |
|
"finetuning_task": "ner", |
|
"gradient_checkpointing": false, |
|
"hidden_act": "gelu", |
|
"hidden_dropout_prob": 0.1, |
|
"hidden_size": 1024, |
|
"id2label": { |
|
"0": "M:N_CCV", |
|
"1": "M:N_CIN", |
|
"2": "M:N_CLA", |
|
"3": "M:N_CLAdv", |
|
"4": "M:N_CLN", |
|
"5": "M:N_CLP", |
|
"6": "M:N_CLQ", |
|
"7": "M:N_CLV", |
|
"8": "M:N_CMA1", |
|
"9": "M:N_CMAdv", |
|
"10": "M:N_CMN1", |
|
"11": "M:N_CMN2", |
|
"12": "M:N_CMN3", |
|
"13": "M:N_CMN4", |
|
"14": "M:N_CMP", |
|
"15": "M:N_CMP2", |
|
"16": "M:N_CMV1", |
|
"17": "M:N_CMV2", |
|
"18": "M:N_CMV3", |
|
"19": "M:N_COMBINATORY", |
|
"20": "M:N_CPA", |
|
"21": "M:N_ESAdvP", |
|
"22": "M:N_ESCCV", |
|
"23": "M:N_ESCM", |
|
"24": "M:N_ESMA", |
|
"25": "M:N_ESMAdvP", |
|
"26": "M:N_ESMI", |
|
"27": "M:N_ESMN", |
|
"28": "M:N_ESMP", |
|
"29": "M:N_ESMV", |
|
"30": "M:N_HELP", |
|
"31": "M:N_SPECIAL", |
|
"32": "M:N_SSCCV", |
|
"33": "M:N_SSCM", |
|
"34": "M:N_SSMA", |
|
"35": "M:N_SSMAdvP", |
|
"36": "M:N_SSMI", |
|
"37": "M:N_SSMN", |
|
"38": "M:N_SSMP", |
|
"39": "M:N_SSMV", |
|
"40": "M:N_STQ", |
|
"41": "M:N_V", |
|
"42": "M:N_nan", |
|
"43": "M:Y_CCV", |
|
"44": "M:Y_CIN", |
|
"45": "M:Y_CLA", |
|
"46": "M:Y_CLAdv", |
|
"47": "M:Y_CLN", |
|
"48": "M:Y_CLP", |
|
"49": "M:Y_CLQ", |
|
"50": "M:Y_CLV", |
|
"51": "M:Y_CMA1", |
|
"52": "M:Y_CMAdv", |
|
"53": "M:Y_CMN1", |
|
"54": "M:Y_CMN2", |
|
"55": "M:Y_CMN4", |
|
"56": "M:Y_CMP", |
|
"57": "M:Y_CMP2", |
|
"58": "M:Y_CMV1", |
|
"59": "M:Y_CMV2", |
|
"60": "M:Y_CMV3", |
|
"61": "M:Y_COMBINATORY", |
|
"62": "M:Y_CPA", |
|
"63": "M:Y_ESAdvP", |
|
"64": "M:Y_ESCCV", |
|
"65": "M:Y_ESCM", |
|
"66": "M:Y_ESMA", |
|
"67": "M:Y_ESMAdvP", |
|
"68": "M:Y_ESMI", |
|
"69": "M:Y_ESMN", |
|
"70": "M:Y_ESMP", |
|
"71": "M:Y_ESMV", |
|
"72": "M:Y_HELP", |
|
"73": "M:Y_SPECIAL", |
|
"74": "M:Y_SSCCV", |
|
"75": "M:Y_SSCM", |
|
"76": "M:Y_SSMA", |
|
"77": "M:Y_SSMAdvP", |
|
"78": "M:Y_SSMI", |
|
"79": "M:Y_SSMN", |
|
"80": "M:Y_SSMP", |
|
"81": "M:Y_SSMV", |
|
"82": "M:Y_STQ" |
|
}, |
|
"initializer_range": 0.02, |
|
"intermediate_size": 4096, |
|
"label2id": { |
|
"M:N_CCV": 0, |
|
"M:N_CIN": 1, |
|
"M:N_CLA": 2, |
|
"M:N_CLAdv": 3, |
|
"M:N_CLN": 4, |
|
"M:N_CLP": 5, |
|
"M:N_CLQ": 6, |
|
"M:N_CLV": 7, |
|
"M:N_CMA1": 8, |
|
"M:N_CMAdv": 9, |
|
"M:N_CMN1": 10, |
|
"M:N_CMN2": 11, |
|
"M:N_CMN3": 12, |
|
"M:N_CMN4": 13, |
|
"M:N_CMP": 14, |
|
"M:N_CMP2": 15, |
|
"M:N_CMV1": 16, |
|
"M:N_CMV2": 17, |
|
"M:N_CMV3": 18, |
|
"M:N_COMBINATORY": 19, |
|
"M:N_CPA": 20, |
|
"M:N_ESAdvP": 21, |
|
"M:N_ESCCV": 22, |
|
"M:N_ESCM": 23, |
|
"M:N_ESMA": 24, |
|
"M:N_ESMAdvP": 25, |
|
"M:N_ESMI": 26, |
|
"M:N_ESMN": 27, |
|
"M:N_ESMP": 28, |
|
"M:N_ESMV": 29, |
|
"M:N_HELP": 30, |
|
"M:N_SPECIAL": 31, |
|
"M:N_SSCCV": 32, |
|
"M:N_SSCM": 33, |
|
"M:N_SSMA": 34, |
|
"M:N_SSMAdvP": 35, |
|
"M:N_SSMI": 36, |
|
"M:N_SSMN": 37, |
|
"M:N_SSMP": 38, |
|
"M:N_SSMV": 39, |
|
"M:N_STQ": 40, |
|
"M:N_V": 41, |
|
"M:N_nan": 42, |
|
"M:Y_CCV": 43, |
|
"M:Y_CIN": 44, |
|
"M:Y_CLA": 45, |
|
"M:Y_CLAdv": 46, |
|
"M:Y_CLN": 47, |
|
"M:Y_CLP": 48, |
|
"M:Y_CLQ": 49, |
|
"M:Y_CLV": 50, |
|
"M:Y_CMA1": 51, |
|
"M:Y_CMAdv": 52, |
|
"M:Y_CMN1": 53, |
|
"M:Y_CMN2": 54, |
|
"M:Y_CMN4": 55, |
|
"M:Y_CMP": 56, |
|
"M:Y_CMP2": 57, |
|
"M:Y_CMV1": 58, |
|
"M:Y_CMV2": 59, |
|
"M:Y_CMV3": 60, |
|
"M:Y_COMBINATORY": 61, |
|
"M:Y_CPA": 62, |
|
"M:Y_ESAdvP": 63, |
|
"M:Y_ESCCV": 64, |
|
"M:Y_ESCM": 65, |
|
"M:Y_ESMA": 66, |
|
"M:Y_ESMAdvP": 67, |
|
"M:Y_ESMI": 68, |
|
"M:Y_ESMN": 69, |
|
"M:Y_ESMP": 70, |
|
"M:Y_ESMV": 71, |
|
"M:Y_HELP": 72, |
|
"M:Y_SPECIAL": 73, |
|
"M:Y_SSCCV": 74, |
|
"M:Y_SSCM": 75, |
|
"M:Y_SSMA": 76, |
|
"M:Y_SSMAdvP": 77, |
|
"M:Y_SSMI": 78, |
|
"M:Y_SSMN": 79, |
|
"M:Y_SSMP": 80, |
|
"M:Y_SSMV": 81, |
|
"M:Y_STQ": 82 |
|
}, |
|
"layer_norm_eps": 1e-12, |
|
"max_position_embeddings": 512, |
|
"model_type": "bert", |
|
"num_attention_heads": 16, |
|
"num_hidden_layers": 24, |
|
"pad_token_id": 0, |
|
"pooler_fc_size": 768, |
|
"pooler_num_attention_heads": 12, |
|
"pooler_num_fc_layers": 3, |
|
"pooler_size_per_head": 128, |
|
"pooler_type": "first_token_transform", |
|
"position_embedding_type": "absolute", |
|
"torch_dtype": "float32", |
|
"transformers_version": "4.9.2", |
|
"type_vocab_size": 2, |
|
"use_cache": true, |
|
"vocab_size": 28996 |
|
} |
|
|