Aktraiser commited on
Commit
7b46300
1 Parent(s): 7bf31db

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +48 -2
README.md CHANGED
@@ -1,5 +1,51 @@
1
  ---
 
 
 
 
2
  base_model:
3
- - nvidia/Llama-3.1-Nemotron-70B-Instruct-HF
4
  pipeline_tag: text-generation
5
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
+ license: apache-2.0
3
+ license_link: https://www.apache.org/licenses/LICENSE-2.0
4
+ language:
5
+ - fr
6
  base_model:
7
+ - unsloth/Meta-Llama-3.1-8B
8
  pipeline_tag: text-generation
9
+ library_name: transformers
10
+ tags:
11
+ - fiscalité
12
+ - génération-de-texte
13
+ - français
14
+ ---
15
+
16
+ # Nom de votre modèle
17
+
18
+ ## Introduction
19
+
20
+ Décrivez ici le but et les caractéristiques principales de votre modèle. Par exemple, s'il est spécialisé dans la génération de textes liés à la fiscalité en français.
21
+
22
+ ## Configuration requise
23
+
24
+ Indiquez les versions des bibliothèques nécessaires, comme `transformers`, et toute autre dépendance.
25
+
26
+ ## Démarrage rapide
27
+
28
+ Fournissez un exemple de code montrant comment charger le modèle et générer du texte :
29
+
30
+ ```python
31
+ from transformers import AutoModelForCausalLM, AutoTokenizer
32
+
33
+ model_name = "Aktraiser/model_test1"
34
+
35
+ model = AutoModelForCausalLM.from_pretrained(
36
+ model_name,
37
+ torch_dtype="auto",
38
+ device_map="auto"
39
+ )
40
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
41
+
42
+ prompt = "Votre prompt ici."
43
+ inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
44
+
45
+ generated_ids = model.generate(
46
+ **inputs,
47
+ max_new_tokens=512
48
+ )
49
+
50
+ response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
51
+ print(response)