ManoloPueblo
commited on
Commit
•
e7ae5ad
1
Parent(s):
07ecf1c
Update README.md
Browse files
README.md
CHANGED
@@ -4,7 +4,7 @@ tags:
|
|
4 |
- merge
|
5 |
- mergekit
|
6 |
- lazymergekit
|
7 |
-
- llm-merge-
|
8 |
- mistral-7b
|
9 |
- mistral-ft-optimized
|
10 |
- neural-hermes
|
@@ -14,9 +14,9 @@ tags:
|
|
14 |
- EmbeddedLLM/Mistral-7B-Merge-14-v0.2
|
15 |
---
|
16 |
|
17 |
-
#
|
18 |
|
19 |
-
|
20 |
* [mistralai/Mistral-7B-v0.1](https://huggingface.co/mistralai/Mistral-7B-v0.1)
|
21 |
* [samir-fama/SamirGPT-v1](https://huggingface.co/samir-fama/SamirGPT-v1)
|
22 |
* [abacusai/Slerp-CM-mist-dpo](https://huggingface.co/abacusai/Slerp-CM-mist-dpo)
|
@@ -49,7 +49,7 @@ dtype: bfloat16
|
|
49 |
```
|
50 |
|
51 |
## Description
|
52 |
-
|
53 |
1. Mistral-7B-v0.1 - Le modèle de base Mistral (modèle de référence)
|
54 |
2. mistral-ft-optimized-1218 - Version optimisée par OpenPipe (poids: 0.5, densité: 0.5)
|
55 |
3. NeuralHermes-2.5-Mistral-7B - Version améliorée par MLabonne (poids: 0.3, densité: 0.5)
|
@@ -73,8 +73,8 @@ Ce modèle peut être utilisé avec la bibliothèque transformers de Hugging Fac
|
|
73 |
```python
|
74 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
75 |
|
76 |
-
tokenizer = AutoTokenizer.from_pretrained("ManoloPueblo/
|
77 |
-
model = AutoModelForCausalLM.from_pretrained("ManoloPueblo/
|
78 |
```
|
79 |
|
80 |
## Modèles fusionnés
|
|
|
4 |
- merge
|
5 |
- mergekit
|
6 |
- lazymergekit
|
7 |
+
- llm-merge-cc3
|
8 |
- mistral-7b
|
9 |
- mistral-ft-optimized
|
10 |
- neural-hermes
|
|
|
14 |
- EmbeddedLLM/Mistral-7B-Merge-14-v0.2
|
15 |
---
|
16 |
|
17 |
+
# LLM_MERGE_CC3
|
18 |
|
19 |
+
LLM_MERGE_CC3 est une fusion des modèles suivants créée par ManoloPueblo utilisant [mergekit](https://github.com/cg123/mergekit):
|
20 |
* [mistralai/Mistral-7B-v0.1](https://huggingface.co/mistralai/Mistral-7B-v0.1)
|
21 |
* [samir-fama/SamirGPT-v1](https://huggingface.co/samir-fama/SamirGPT-v1)
|
22 |
* [abacusai/Slerp-CM-mist-dpo](https://huggingface.co/abacusai/Slerp-CM-mist-dpo)
|
|
|
49 |
```
|
50 |
|
51 |
## Description
|
52 |
+
LLM_MERGE_CC3 est un modèle de langage créé par la fusion de trois variantes Mistral :
|
53 |
1. Mistral-7B-v0.1 - Le modèle de base Mistral (modèle de référence)
|
54 |
2. mistral-ft-optimized-1218 - Version optimisée par OpenPipe (poids: 0.5, densité: 0.5)
|
55 |
3. NeuralHermes-2.5-Mistral-7B - Version améliorée par MLabonne (poids: 0.3, densité: 0.5)
|
|
|
73 |
```python
|
74 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
75 |
|
76 |
+
tokenizer = AutoTokenizer.from_pretrained("ManoloPueblo/LLM_MERGE_CC3")
|
77 |
+
model = AutoModelForCausalLM.from_pretrained("ManoloPueblo/LLM_MERGE_CC3")
|
78 |
```
|
79 |
|
80 |
## Modèles fusionnés
|