Update modelo.txt
Browse files- modelo.txt +8 -2
modelo.txt
CHANGED
@@ -1,9 +1,15 @@
|
|
1 |
Modelo de tarjeta para Mixtral-8x7B
|
2 |
|
3 |
-
El modelo de lenguaje grande (LLM) Mixtral-8x7B es una mezcla dispersa generativa preentrenada de expertos.
|
|
|
|
|
4 |
|
5 |
Para obtener todos los detalles de este modelo, lea nuestra publicación de blog de lanzamiento.
|
6 |
|
7 |
Advertencia
|
8 |
|
9 |
-
Este repositorio contiene pesos que son compatibles con el servicio vLLM del modelo, así como con la biblioteca de transformadores Hugging Face.
|
|
|
|
|
|
|
|
|
|
1 |
Modelo de tarjeta para Mixtral-8x7B
|
2 |
|
3 |
+
El modelo de lenguaje grande (LLM) Mixtral-8x7B es una mezcla dispersa generativa preentrenada de expertos.
|
4 |
+
|
5 |
+
El Mixtral-8x7B supera al Llama 2 70B en la mayoría de los puntos de referencia que probamos.
|
6 |
|
7 |
Para obtener todos los detalles de este modelo, lea nuestra publicación de blog de lanzamiento.
|
8 |
|
9 |
Advertencia
|
10 |
|
11 |
+
Este repositorio contiene pesos que son compatibles con el servicio vLLM del modelo, así como con la biblioteca de transformadores Hugging Face.
|
12 |
+
|
13 |
+
Se basa en la versión original de Mixtral torrent, pero el formato de archivo y los nombres de los parámetros son diferentes.
|
14 |
+
|
15 |
+
Tenga en cuenta que el modelo no se puede (todavía) instanciar con HF.
|