Fix hashlinks
#2
by
mishig
HF staff
- opened
README.md
CHANGED
@@ -1,6 +1,6 @@
|
|
1 |
# Carte du modèle : Guillaume Tell
|
2 |
|
3 |
-
[Version française](#
|
4 |
|
5 |
---
|
6 |
# Version française
|
@@ -13,11 +13,11 @@
|
|
13 |
2. [Utilisation](#utilisation)
|
14 |
- [Contexte de création](#contexte-de-création)
|
15 |
- [Finalités et limites du modèle](#finalités-et-limites-du-modèle)
|
16 |
-
- [Cas d'usage et utilisateurs](#cas-
|
17 |
- [Exemple](#exemple)
|
18 |
3. [Prompt](#prompt)
|
19 |
4. [Informations sur le finetuning](#informations-sur-le-finetuning)
|
20 |
-
5. [Utilisation d'Albert pour des tâches de RAG](#utilisation-
|
21 |
5. [Glossaire](#glossaire)
|
22 |
---
|
23 |
|
@@ -39,7 +39,7 @@ Le modèle "Guillaume Tell" vise à améliorer la vérifiabilité de la généra
|
|
39 |
---
|
40 |
## Utilisation
|
41 |
### Contexte de création
|
42 |
-
Guillaume Tell a été developpé pour **ALBERT**, l’outil d’IA Générative interministérielle de l’État, et plus particulièrement dans le cadre de [l'expérimentation d'un modèle d'assistance aux conseillers numériques](https://www.france-services.gouv.fr/actualites/experimentation-dun-modele-dassistance-france-services-IA) [France services](#
|
43 |
|
44 |
### Finalités et limites du modèle
|
45 |
Guillaume Tell est un modèle de langage, avec des capacités conversationnelles et de recherche d'information sourcée. Il peut être utilisé pour formuler une réponse à des questions relatives à l'administration française (eg. démarches administratives) en allant récupérer des informations pertinentes dans sa base de connaissances (RAG) et en synthétisant une réponse à partir de celles-ci.
|
@@ -131,7 +131,7 @@ Guillaume Tell a été fine tuné en utilisant l'approche LORA et une quantizati
|
|
131 |
Le code de finetuning `finetuning.py` est disponible dans la section `Files and versions`.
|
132 |
|
133 |
---
|
134 |
-
## Utilisation d'Albert pour des tâches de [RAG](#
|
135 |
|
136 |
Il est possible d'utiliser des techniques de RAG afin d'optimiser la pertinence de la réponse du modèle. Nous pouvons ainsi obtenir des réponses basées sur les bonnes données adaptées à la question.
|
137 |
C'est ce que nous faisons actuellement en production avec ALBERT.
|
@@ -159,16 +159,16 @@ C'est ce que nous faisons actuellement en production avec ALBERT.
|
|
159 |
|
160 |
---
|
161 |
## Table of contents
|
162 |
-
1. [Model details](#
|
163 |
-
2. [Uses](#
|
164 |
-
- [Creation context](#
|
165 |
-
- [Purposes and limitations of the model](#
|
166 |
-
- [Use-cases-and-users](#
|
167 |
-
- [Example](#
|
168 |
-
3. [Prompt](#
|
169 |
-
4. [Finetuning information](#
|
170 |
-
5. [Using Albert for RAG tasks](#
|
171 |
-
5. [Glossary](#
|
172 |
---
|
173 |
|
174 |
## Model details
|
@@ -279,7 +279,7 @@ Guillaume Tell was fine-tuned using the LORA approach and 4-bit quantization on
|
|
279 |
The finetuning code `finetuning.py` is available in the `Files and versions` section.
|
280 |
|
281 |
---
|
282 |
-
## Using Albert for [RAG](#
|
283 |
|
284 |
RAG techniques can be used to optimize the relevance of the model's response. In this way, we can obtain answers based on the right data for the right question.
|
285 |
This is what we are currently doing in production with ALBERT.
|
@@ -303,5 +303,3 @@ At the time of the model's release, the data for ALBERT's RAG consisted of the f
|
|
303 |
## Evaluation
|
304 |
|
305 |
<!-- This section describes the evaluation protocols and provides the results. -->
|
306 |
-
|
307 |
-
|
|
|
1 |
# Carte du modèle : Guillaume Tell
|
2 |
|
3 |
+
[Version française](#version-française) / [English version](#english-version)
|
4 |
|
5 |
---
|
6 |
# Version française
|
|
|
13 |
2. [Utilisation](#utilisation)
|
14 |
- [Contexte de création](#contexte-de-création)
|
15 |
- [Finalités et limites du modèle](#finalités-et-limites-du-modèle)
|
16 |
+
- [Cas d'usage et utilisateurs](#cas-dusage-et-utilisateurs)
|
17 |
- [Exemple](#exemple)
|
18 |
3. [Prompt](#prompt)
|
19 |
4. [Informations sur le finetuning](#informations-sur-le-finetuning)
|
20 |
+
5. [Utilisation d'Albert pour des tâches de RAG](#utilisation-dalbert-pour-des-tâches-de-ragglossaire)
|
21 |
5. [Glossaire](#glossaire)
|
22 |
---
|
23 |
|
|
|
39 |
---
|
40 |
## Utilisation
|
41 |
### Contexte de création
|
42 |
+
Guillaume Tell a été developpé pour **ALBERT**, l’outil d’IA Générative interministérielle de l’État, et plus particulièrement dans le cadre de [l'expérimentation d'un modèle d'assistance aux conseillers numériques](https://www.france-services.gouv.fr/actualites/experimentation-dun-modele-dassistance-france-services-IA) [France services](#glossaire) basé sur l’intelligence artificielle. Guillaume Tell vise à répondre aux besoins spécifiques des conseillers face à un LLM, en l'occurence la vérification des réponses générées par Albert pour s'assurer de leur justesse avant de les transmettre à des usagers accueillis en maison France services.
|
43 |
|
44 |
### Finalités et limites du modèle
|
45 |
Guillaume Tell est un modèle de langage, avec des capacités conversationnelles et de recherche d'information sourcée. Il peut être utilisé pour formuler une réponse à des questions relatives à l'administration française (eg. démarches administratives) en allant récupérer des informations pertinentes dans sa base de connaissances (RAG) et en synthétisant une réponse à partir de celles-ci.
|
|
|
131 |
Le code de finetuning `finetuning.py` est disponible dans la section `Files and versions`.
|
132 |
|
133 |
---
|
134 |
+
## Utilisation d'Albert pour des tâches de [RAG](#glossaire)
|
135 |
|
136 |
Il est possible d'utiliser des techniques de RAG afin d'optimiser la pertinence de la réponse du modèle. Nous pouvons ainsi obtenir des réponses basées sur les bonnes données adaptées à la question.
|
137 |
C'est ce que nous faisons actuellement en production avec ALBERT.
|
|
|
159 |
|
160 |
---
|
161 |
## Table of contents
|
162 |
+
1. [Model details](#model-details)
|
163 |
+
2. [Uses](#uses)
|
164 |
+
- [Creation context](#creation-context)
|
165 |
+
- [Purposes and limitations of the model](#purposes-and-limitations-of-the-model)
|
166 |
+
- [Use-cases-and-users](#use-cases-and-users)
|
167 |
+
- [Example](#example)
|
168 |
+
3. [Prompt](#prompt-1)
|
169 |
+
4. [Finetuning information](#finetuning-information)
|
170 |
+
5. [Using Albert for RAG tasks](#using-albert-for-rag--tasks)
|
171 |
+
5. [Glossary](#glossary)
|
172 |
---
|
173 |
|
174 |
## Model details
|
|
|
279 |
The finetuning code `finetuning.py` is available in the `Files and versions` section.
|
280 |
|
281 |
---
|
282 |
+
## Using Albert for [RAG](#glossary) tasks
|
283 |
|
284 |
RAG techniques can be used to optimize the relevance of the model's response. In this way, we can obtain answers based on the right data for the right question.
|
285 |
This is what we are currently doing in production with ALBERT.
|
|
|
303 |
## Evaluation
|
304 |
|
305 |
<!-- This section describes the evaluation protocols and provides the results. -->
|
|
|
|