fbaldassarri
commited on
Commit
•
3801fda
1
Parent(s):
259f429
Initial Upload
Browse files- .gitignore +1 -0
- LICENSE.md +12 -0
- README.md +78 -3
- config.json +52 -0
- model.safetensors +3 -0
- quantize_config.json +20 -0
- special_tokens_map.json +23 -0
- tokenizer.json +0 -0
- tokenizer.model +3 -0
- tokenizer_config.json +43 -0
.gitignore
ADDED
@@ -0,0 +1 @@
|
|
|
|
|
1 |
+
.DS_Store
|
LICENSE.md
ADDED
@@ -0,0 +1,12 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
iGenius
|
2 |
+
|
3 |
+
Copyright (c) 2024, iGenius S.p.A.
|
4 |
+
|
5 |
+
MIT License
|
6 |
+
|
7 |
+
È concessa l'autorizzazione, gratuitamente, a chiunque di ottenere una copia di Modello Italia e dei file di documentazione associati, di utilizzare Modello Italia senza restrizioni, inclusi senza limitazione i diritti di utilizzare, copiare, modificare, unire, pubblicare, distribuire, concedere in sublicenza e/o vendere copie di Modello Italia, e di consentire alle persone a cui Modello Italia è fornito di farlo, nelle condizioni seguenti:
|
8 |
+
|
9 |
+
Il presente avviso di copyright e il presente avviso di autorizzazione saranno inclusi in tutte le copie o parti sostanziali di Modello Italia.
|
10 |
+
|
11 |
+
IL MODELLO VIENE FORNITO "COSÌ COM'È", SENZA GARANZIE DI ALCUN TIPO, ESPRESSE O IMPLICITE, INCLUSO MA NON LIMITATO A GARANZIE DI COMMERCIABILITÀ, IDONEITÀ PER UN PARTICOLARE SCOPO E NON VIOLAZIONE. IN NESSUN CASO GLI AUTORI O I TITOLARI DEL COPYRIGHT SARANNO RESPONSABILI PER QUALSIASI RICHIESTA, DANNO O ALTRA RESPONSABILITÀ, IN CASO DI AZIONE DI CONTRATTO, TORTO O ALTRIMENTI, DERIVANTE DA, FUORI O IN CONNESSIONE CON IL SOFTWARE O L'USO O ALTRI AFFARI NEL SOFTWARE.
|
12 |
+
|
README.md
CHANGED
@@ -1,3 +1,78 @@
|
|
1 |
-
---
|
2 |
-
license: mit
|
3 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
license: mit
|
3 |
+
language:
|
4 |
+
- it
|
5 |
+
---
|
6 |
+
|
7 |
+
# Model Card for Modello Italia 9B INT4 group-size 128 GPU-optimized
|
8 |
+
This an UNOFFICIAL conversion/quantization of the OFFICIAL model checkpoint of *"Modello Italia 9B"*, Large Language Model (LLM) developed by [iGenius](https://it.igenius.ai/) in collaboration with [CINECA](https://www.cineca.it/).
|
9 |
+
* More information about Modello Italia: [click here](https://it.igenius.ai/language-models).
|
10 |
+
|
11 |
+
This model has been quantized in INT4, group-size 128, and optimized for inferencing on GPU.
|
12 |
+
|
13 |
+
## 🚨 Disclaimers
|
14 |
+
* This is an UNOFFICIAL quantization of the OFFICIAL model checkpoint released by iGenius.
|
15 |
+
* This model is based also on the conversion made for HF Transformers by [Sapienza NLP, Sapienza University of Rome](https://huggingface.co/sapienzanlp).
|
16 |
+
* The original model was developed using LitGPT, therefore, the weights need to be converted before they can be used with Hugging Face transformers.
|
17 |
+
|
18 |
+
## 🚨 Terms and Conditions
|
19 |
+
* **Note:** By using this model, you accept the iGenius' [**terms and conditions**](https://secure.igenius.ai/legal/italia_terms_and_conditions.pdf).
|
20 |
+
|
21 |
+
## 🚨 Reproducibility
|
22 |
+
This model has been quantized using Intel [auto-round](https://github.com/intel/auto-round), based on [SignRound technique](https://arxiv.org/pdf/2309.05516v4).
|
23 |
+
|
24 |
+
```
|
25 |
+
git clone https://github.com/fbaldassarri/model-conversion.git
|
26 |
+
|
27 |
+
cd model-conversion
|
28 |
+
|
29 |
+
mkdir models
|
30 |
+
|
31 |
+
cd models
|
32 |
+
|
33 |
+
huggingface-cli download --resume-download --local-dir sapienzanlp_modello-italia-9b --local-dir-use-symlinks False sapienzanlp/modello-italia-9b
|
34 |
+
```
|
35 |
+
|
36 |
+
Then,
|
37 |
+
|
38 |
+
```
|
39 |
+
python3 ./examples/language-modeling/main.py \
|
40 |
+
--model_name ./models/sapienzanlp_modello-italia-9b \
|
41 |
+
--device 0 \
|
42 |
+
--group_size 128 \
|
43 |
+
--bits 4 \
|
44 |
+
--iters 1000 \
|
45 |
+
--deployment_device 'gpu' \
|
46 |
+
--output_dir "./models/sapienzanlp_modello-italia-9b-int4" \
|
47 |
+
--train_bs 2 \
|
48 |
+
--gradient_accumulate_steps 8
|
49 |
+
```
|
50 |
+
|
51 |
+
## 🚨 Biases and Risks
|
52 |
+
From the terms and conditions of iGenius for Modello Italia:
|
53 |
+
> Modello Italia è concepito per essere utilizzato da tutti e per adattarsi a una vasta gamma di casi
|
54 |
+
d'uso. È stato progettato con l'obiettivo di essere accessibile a persone provenienti da
|
55 |
+
background, esperienze e prospettive diverse. Modello Italia si rivolge agli utenti e alle loro
|
56 |
+
esigenze senza inserire giudizi superflui o normative, riconoscendo al contempo che anche
|
57 |
+
contenuti potenzialmente problematici in determinati contesti possono avere scopi validi in altri.
|
58 |
+
Il rispetto per la dignità e l'autonomia di tutti gli utenti, specialmente in termini di libertà di
|
59 |
+
pensiero ed espressione, è un pilastro fondamentale del suo design. Tuttavia, essendo una nuova
|
60 |
+
tecnologia, Modello Italia comporta rischi legati al suo utilizzo. I test condotti finora sono stati
|
61 |
+
eseguiti in italiano e non hanno potuto coprire tutte le possibili situazioni. Pertanto, come per
|
62 |
+
tutti gli LLM, non è possibile prevedere in anticipo gli output di Modello Italia e il modello
|
63 |
+
potrebbe in alcuni casi generare risposte imprecise, tendenziose o altre risposte discutibili. Prima
|
64 |
+
di utilizzare Modello Italia in qualsiasi contesto, gli sviluppatori sono fortemente incoraggiati a
|
65 |
+
eseguire test di sicurezza e adattamento specifici per le loro applicazioni.
|
66 |
+
|
67 |
+
We are aware of the biases and potential problematic/toxic content that current pretrained large language models exhibit: more specifically, as probabilistic models of (Italian and English) languages, they reflect and amplify the biases of their training data.
|
68 |
+
|
69 |
+
For more information about this issue, please refer to our survey paper:
|
70 |
+
* [Biases in Large Language Models: Origins, Inventory, and Discussion](https://dl.acm.org/doi/full/10.1145/3597307)
|
71 |
+
|
72 |
+
## Model architecture
|
73 |
+
* The model architecture is **based on GPT-NeoX**.
|
74 |
+
|
75 |
+
## Results
|
76 |
+
**Modello Italia 9B INT4 group-size 128 GPU-optimized** has not been evaluated on standard benchmarks yet.
|
77 |
+
If you would like to contribute with your evaluation, please feel free to submit a pull request.
|
78 |
+
|
config.json
ADDED
@@ -0,0 +1,52 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_name_or_path": "./models/sapienzanlp_modello-italia-9b",
|
3 |
+
"architectures": [
|
4 |
+
"GPTNeoXForCausalLM"
|
5 |
+
],
|
6 |
+
"attention_bias": true,
|
7 |
+
"attention_dropout": 0.0,
|
8 |
+
"attention_probs_dropout_prob": 0,
|
9 |
+
"bos_token_id": 0,
|
10 |
+
"classifier_dropout": 0.1,
|
11 |
+
"eos_token_id": 0,
|
12 |
+
"hidden_act": "gelu_fast",
|
13 |
+
"hidden_dropout": 0.0,
|
14 |
+
"hidden_dropout_prob": 0,
|
15 |
+
"hidden_size": 5120,
|
16 |
+
"initializer_range": 0.02,
|
17 |
+
"intermediate_size": 12800,
|
18 |
+
"layer_norm_eps": 1e-05,
|
19 |
+
"max_position_embeddings": 4096,
|
20 |
+
"model_type": "gpt_neox",
|
21 |
+
"num_attention_heads": 32,
|
22 |
+
"num_hidden_layers": 34,
|
23 |
+
"quantization_config": {
|
24 |
+
"autoround_version": "0.2",
|
25 |
+
"bits": 4,
|
26 |
+
"damp_percent": 0.01,
|
27 |
+
"desc_act": false,
|
28 |
+
"enable_minmax_tuning": true,
|
29 |
+
"enable_quanted_input": true,
|
30 |
+
"group_size": 128,
|
31 |
+
"is_marlin_format": false,
|
32 |
+
"iters": 1000,
|
33 |
+
"lr": 0.001,
|
34 |
+
"minmax_lr": 0.001,
|
35 |
+
"model_file_base_name": "model",
|
36 |
+
"model_name_or_path": null,
|
37 |
+
"quant_method": "gptq",
|
38 |
+
"scale_dtype": "float16",
|
39 |
+
"static_groups": false,
|
40 |
+
"sym": false,
|
41 |
+
"true_sequential": false
|
42 |
+
},
|
43 |
+
"rope_scaling": null,
|
44 |
+
"rotary_emb_base": 10000,
|
45 |
+
"rotary_pct": 0.4,
|
46 |
+
"tie_word_embeddings": false,
|
47 |
+
"torch_dtype": "float32",
|
48 |
+
"transformers_version": "4.41.2",
|
49 |
+
"use_cache": true,
|
50 |
+
"use_parallel_residual": true,
|
51 |
+
"vocab_size": 50176
|
52 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:ebddc75fec7dae157e6c7ec94d59f5765a2375e19dc738d176981d20fdc600d8
|
3 |
+
size 5203031160
|
quantize_config.json
ADDED
@@ -0,0 +1,20 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"bits": 4,
|
3 |
+
"group_size": 128,
|
4 |
+
"damp_percent": 0.01,
|
5 |
+
"desc_act": false,
|
6 |
+
"static_groups": false,
|
7 |
+
"sym": false,
|
8 |
+
"true_sequential": false,
|
9 |
+
"model_name_or_path": null,
|
10 |
+
"model_file_base_name": "model",
|
11 |
+
"is_marlin_format": false,
|
12 |
+
"quant_method": "intel/auto-round",
|
13 |
+
"autoround_version": "0.2",
|
14 |
+
"iters": 1000,
|
15 |
+
"lr": 0.001,
|
16 |
+
"minmax_lr": 0.001,
|
17 |
+
"enable_minmax_tuning": true,
|
18 |
+
"enable_quanted_input": true,
|
19 |
+
"scale_dtype": "float16"
|
20 |
+
}
|
special_tokens_map.json
ADDED
@@ -0,0 +1,23 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"bos_token": {
|
3 |
+
"content": "<s>",
|
4 |
+
"lstrip": false,
|
5 |
+
"normalized": false,
|
6 |
+
"rstrip": false,
|
7 |
+
"single_word": false
|
8 |
+
},
|
9 |
+
"eos_token": {
|
10 |
+
"content": "</s>",
|
11 |
+
"lstrip": false,
|
12 |
+
"normalized": false,
|
13 |
+
"rstrip": false,
|
14 |
+
"single_word": false
|
15 |
+
},
|
16 |
+
"unk_token": {
|
17 |
+
"content": "<unk>",
|
18 |
+
"lstrip": false,
|
19 |
+
"normalized": false,
|
20 |
+
"rstrip": false,
|
21 |
+
"single_word": false
|
22 |
+
}
|
23 |
+
}
|
tokenizer.json
ADDED
The diff for this file is too large to render.
See raw diff
|
|
tokenizer.model
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:bd74bea2ba620d87e0a2127d9a21196b862a5cc7942ba4638eb2159bbab3340c
|
3 |
+
size 1090536
|
tokenizer_config.json
ADDED
@@ -0,0 +1,43 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"add_bos_token": true,
|
3 |
+
"add_eos_token": false,
|
4 |
+
"add_prefix_space": true,
|
5 |
+
"added_tokens_decoder": {
|
6 |
+
"0": {
|
7 |
+
"content": "<unk>",
|
8 |
+
"lstrip": false,
|
9 |
+
"normalized": false,
|
10 |
+
"rstrip": false,
|
11 |
+
"single_word": false,
|
12 |
+
"special": true
|
13 |
+
},
|
14 |
+
"1": {
|
15 |
+
"content": "<s>",
|
16 |
+
"lstrip": false,
|
17 |
+
"normalized": false,
|
18 |
+
"rstrip": false,
|
19 |
+
"single_word": false,
|
20 |
+
"special": true
|
21 |
+
},
|
22 |
+
"2": {
|
23 |
+
"content": "</s>",
|
24 |
+
"lstrip": false,
|
25 |
+
"normalized": false,
|
26 |
+
"rstrip": false,
|
27 |
+
"single_word": false,
|
28 |
+
"special": true
|
29 |
+
}
|
30 |
+
},
|
31 |
+
"bos_token": "<s>",
|
32 |
+
"chat_template": "{% for message in messages %}\n{% if message['role'] == 'user' %}\n{{ '<|user|>\n' + message['content'] + eos_token }}\n{% elif message['role'] == 'system' %}\n{{ '<|system|>\n' + message['content'] + eos_token }}\n{% elif message['role'] == 'assistant' %}\n{{ '<|assistant|>\n' + message['content'] + eos_token }}\n{% endif %}\n{% if loop.last and add_generation_prompt %}\n{{ '<|assistant|>' }}\n{% endif %}\n{% endfor %}",
|
33 |
+
"clean_up_tokenization_spaces": false,
|
34 |
+
"eos_token": "</s>",
|
35 |
+
"legacy": true,
|
36 |
+
"model_max_length": 1000000000000000019884624838656,
|
37 |
+
"pad_token": null,
|
38 |
+
"sp_model_kwargs": {},
|
39 |
+
"spaces_between_special_tokens": false,
|
40 |
+
"tokenizer_class": "LlamaTokenizer",
|
41 |
+
"unk_token": "<unk>",
|
42 |
+
"use_default_system_prompt": false
|
43 |
+
}
|