|
{ |
|
"architectures": [ |
|
"BertForSequenceClassification" |
|
], |
|
"attention_probs_dropout_prob": 0.1, |
|
"classifier_dropout": null, |
|
"directionality": "bidi", |
|
"hidden_act": "gelu", |
|
"hidden_dropout_prob": 0.1, |
|
"hidden_size": 768, |
|
"id2label": { |
|
"0": "af", |
|
"1": "am", |
|
"2": "ar", |
|
"3": "as", |
|
"4": "az", |
|
"5": "be", |
|
"6": "bg", |
|
"7": "bn", |
|
"8": "bn_rom", |
|
"9": "br", |
|
"10": "bs", |
|
"11": "ca", |
|
"12": "cs", |
|
"13": "cy", |
|
"14": "da", |
|
"15": "de", |
|
"16": "el", |
|
"17": "en", |
|
"18": "eo", |
|
"19": "es", |
|
"20": "et", |
|
"21": "eu", |
|
"22": "fa", |
|
"23": "ff", |
|
"24": "fi", |
|
"25": "fr", |
|
"26": "fy", |
|
"27": "ga", |
|
"28": "gd", |
|
"29": "gl", |
|
"30": "gn", |
|
"31": "gu", |
|
"32": "ha", |
|
"33": "he", |
|
"34": "hi", |
|
"35": "hi_rom", |
|
"36": "hr", |
|
"37": "ht", |
|
"38": "hu", |
|
"39": "hy", |
|
"40": "id", |
|
"41": "ig", |
|
"42": "is", |
|
"43": "it", |
|
"44": "ja", |
|
"45": "jv", |
|
"46": "ka", |
|
"47": "kk", |
|
"48": "km", |
|
"49": "kn", |
|
"50": "ko", |
|
"51": "ku", |
|
"52": "ky", |
|
"53": "la", |
|
"54": "lg", |
|
"55": "li", |
|
"56": "ln", |
|
"57": "lo", |
|
"58": "lt", |
|
"59": "lv", |
|
"60": "mg", |
|
"61": "mk", |
|
"62": "ml", |
|
"63": "mn", |
|
"64": "mr", |
|
"65": "ms", |
|
"66": "my", |
|
"67": "my_zaw", |
|
"68": "ne", |
|
"69": "nl", |
|
"70": "no", |
|
"71": "ns", |
|
"72": "om", |
|
"73": "or", |
|
"74": "pa", |
|
"75": "pl", |
|
"76": "ps", |
|
"77": "pt", |
|
"78": "qu", |
|
"79": "rm", |
|
"80": "ro", |
|
"81": "ru", |
|
"82": "sa", |
|
"83": "sc", |
|
"84": "sd", |
|
"85": "si", |
|
"86": "sk", |
|
"87": "sl", |
|
"88": "so", |
|
"89": "sq", |
|
"90": "sr", |
|
"91": "ss", |
|
"92": "su", |
|
"93": "sv", |
|
"94": "sw", |
|
"95": "ta", |
|
"96": "ta_rom", |
|
"97": "te", |
|
"98": "te_rom", |
|
"99": "th", |
|
"100": "tl", |
|
"101": "tn", |
|
"102": "tr", |
|
"103": "ug", |
|
"104": "uk", |
|
"105": "ur", |
|
"106": "ur_rom", |
|
"107": "uz", |
|
"108": "vi", |
|
"109": "wo", |
|
"110": "xh", |
|
"111": "yi", |
|
"112": "yo", |
|
"113": "zh-Hans", |
|
"114": "zh-Hant", |
|
"115": "zu" |
|
}, |
|
"initializer_range": 0.02, |
|
"intermediate_size": 3072, |
|
"label2id": { |
|
"af": 0, |
|
"am": 1, |
|
"ar": 2, |
|
"as": 3, |
|
"az": 4, |
|
"be": 5, |
|
"bg": 6, |
|
"bn": 7, |
|
"bn_rom": 8, |
|
"br": 9, |
|
"bs": 10, |
|
"ca": 11, |
|
"cs": 12, |
|
"cy": 13, |
|
"da": 14, |
|
"de": 15, |
|
"el": 16, |
|
"en": 17, |
|
"eo": 18, |
|
"es": 19, |
|
"et": 20, |
|
"eu": 21, |
|
"fa": 22, |
|
"ff": 23, |
|
"fi": 24, |
|
"fr": 25, |
|
"fy": 26, |
|
"ga": 27, |
|
"gd": 28, |
|
"gl": 29, |
|
"gn": 30, |
|
"gu": 31, |
|
"ha": 32, |
|
"he": 33, |
|
"hi": 34, |
|
"hi_rom": 35, |
|
"hr": 36, |
|
"ht": 37, |
|
"hu": 38, |
|
"hy": 39, |
|
"id": 40, |
|
"ig": 41, |
|
"is": 42, |
|
"it": 43, |
|
"ja": 44, |
|
"jv": 45, |
|
"ka": 46, |
|
"kk": 47, |
|
"km": 48, |
|
"kn": 49, |
|
"ko": 50, |
|
"ku": 51, |
|
"ky": 52, |
|
"la": 53, |
|
"lg": 54, |
|
"li": 55, |
|
"ln": 56, |
|
"lo": 57, |
|
"lt": 58, |
|
"lv": 59, |
|
"mg": 60, |
|
"mk": 61, |
|
"ml": 62, |
|
"mn": 63, |
|
"mr": 64, |
|
"ms": 65, |
|
"my": 66, |
|
"my_zaw": 67, |
|
"ne": 68, |
|
"nl": 69, |
|
"no": 70, |
|
"ns": 71, |
|
"om": 72, |
|
"or": 73, |
|
"pa": 74, |
|
"pl": 75, |
|
"ps": 76, |
|
"pt": 77, |
|
"qu": 78, |
|
"rm": 79, |
|
"ro": 80, |
|
"ru": 81, |
|
"sa": 82, |
|
"sc": 83, |
|
"sd": 84, |
|
"si": 85, |
|
"sk": 86, |
|
"sl": 87, |
|
"so": 88, |
|
"sq": 89, |
|
"sr": 90, |
|
"ss": 91, |
|
"su": 92, |
|
"sv": 93, |
|
"sw": 94, |
|
"ta": 95, |
|
"ta_rom": 96, |
|
"te": 97, |
|
"te_rom": 98, |
|
"th": 99, |
|
"tl": 100, |
|
"tn": 101, |
|
"tr": 102, |
|
"ug": 103, |
|
"uk": 104, |
|
"ur": 105, |
|
"ur_rom": 106, |
|
"uz": 107, |
|
"vi": 108, |
|
"wo": 109, |
|
"xh": 110, |
|
"yi": 111, |
|
"yo": 112, |
|
"zh-Hans": 113, |
|
"zh-Hant": 114, |
|
"zu": 115 |
|
}, |
|
"layer_norm_eps": 1e-12, |
|
"max_position_embeddings": 512, |
|
"model_type": "bert", |
|
"num_attention_heads": 12, |
|
"num_hidden_layers": 12, |
|
"pad_token_id": 0, |
|
"pooler_fc_size": 768, |
|
"pooler_num_attention_heads": 12, |
|
"pooler_num_fc_layers": 3, |
|
"pooler_size_per_head": 128, |
|
"pooler_type": "first_token_transform", |
|
"position_embedding_type": "absolute", |
|
"problem_type": "single_label_classification", |
|
"torch_dtype": "float32", |
|
"transformers_version": "4.51.3", |
|
"type_vocab_size": 2, |
|
"use_cache": true, |
|
"vocab_size": 119547 |
|
} |
|
|