PEFT
French
bourdoiscatie commited on
Commit
a7c98d6
1 Parent(s): 8639a3f

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +6 -4
README.md CHANGED
@@ -21,16 +21,18 @@ We have trained 21,260,288 parameters out of 7,262,992,384, i.e. 0.23%.
21
 
22
  ```py
23
  import torch
 
 
24
  from transformers import AutoModelForCausalLM, AutoTokenizer
25
 
26
- model_name = "CATIE-AQ/mistral7B-FR-InstructNLP-LoRA"
27
- model = AutoModelForCausalLM.from_pretrained(model_name).cuda()
 
28
 
29
  tokenizer = AutoTokenizer.from_pretrained("mistralai/Mistral-7B-v0.1")
30
  tokenizer.pad_token = tokenizer.eos_token
31
 
32
- prompt = '''Prenez l'énoncé suivant comme vrai : "Euh, non, pour être honnête, je n'ai jamais lu aucun des livres que j'étais supposé lire."\n Alors l'énoncé suivant : "Je n'ai pas lu beaucoup de livres." est "vrai", "faux", ou "incertain" ?
33
- '''
34
  model_input = tokenizer(prompt, return_tensors="pt").to("cuda")
35
 
36
  model.eval()
 
21
 
22
  ```py
23
  import torch
24
+
25
+ from peft import PeftModel, PeftConfig
26
  from transformers import AutoModelForCausalLM, AutoTokenizer
27
 
28
+ config = PeftConfig.from_pretrained("CATIE-AQ/mistral7B-FR-InstructNLP-LoRA")
29
+ model = AutoModelForCausalLM.from_pretrained("mistralai/Mistral-7B-v0.1")
30
+ model = PeftModel.from_pretrained(model, "CATIE-AQ/mistral7B-FR-InstructNLP-LoRA")
31
 
32
  tokenizer = AutoTokenizer.from_pretrained("mistralai/Mistral-7B-v0.1")
33
  tokenizer.pad_token = tokenizer.eos_token
34
 
35
+ prompt = '''Prenez l'énoncé suivant comme vrai : "Euh, non, pour être honnête, je n'ai jamais lu aucun des livres que j'étais supposé lire."\n Alors l'énoncé suivant : "Je n'ai pas lu beaucoup de livres." est "vrai", "faux", ou "incertain" ?'''
 
36
  model_input = tokenizer(prompt, return_tensors="pt").to("cuda")
37
 
38
  model.eval()