jpacifico commited on
Commit
7edfcc4
1 Parent(s): 758fe75

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +39 -34
README.md CHANGED
@@ -10,12 +10,13 @@ tags:
10
  - Phi-3
11
  - french
12
  - Phi-3-mini
 
13
  ---
14
 
15
  ## Model Card for Model ID
16
 
17
- French-Alpaca based on microsoft/Phi-3-mini-128k-instruct
18
- 128k is the context length (in tokens)
19
 
20
  ![image/jpeg](https://github.com/jpacifico/French-Alpaca/blob/main/Assets/French-Alpaca_500px.png?raw=true)
21
 
@@ -32,38 +33,42 @@ Quantized GGUF version : coming soon
32
  ### Usage
33
 
34
  ```python
35
- def stream_response(instruction, max_new_tokens=500, temperature=0.0, do_sample=False):
36
- messages = [
37
- {"role": "system", "content": "Vous êtes un assistant numérique serviable. Veuillez fournir des informations sûres, éthiques et précises à l'utilisateur."},
38
- {"role": "user", "content": instruction}
39
- ]
40
-
41
- conversation_history = ""
42
- for msg in messages:
43
- conversation_history += msg["role"] + ": " + msg["content"] + "\n"
44
-
45
- inputs = tokenizer(conversation_history, return_tensors="pt", padding=True, truncation=True)
46
- input_ids = inputs['input_ids'].to("cuda")
47
-
48
- output_sequences = model.generate(
49
- input_ids=input_ids,
50
- max_length=input_ids.shape[1] + max_new_tokens,
51
- temperature=temperature,
52
- do_sample=do_sample,
53
- pad_token_id=tokenizer.eos_token_id,
54
- eos_token_id=None
55
- )
56
-
57
- generated_text = tokenizer.decode(output_sequences[0], skip_special_tokens=True)
58
- last_user_message = "user: " + instruction
59
- response_start_index = generated_text.rfind(last_user_message) + len(last_user_message)
60
- response = generated_text[response_start_index:].strip()
61
-
62
- print(response)
63
-
64
- # Exemple d'utilisation
65
- instruction = "propose moi des façons de combiner des bananes et des pitayas pour les consommer."
66
- stream_response(instruction)
 
 
 
 
67
  ```
68
 
69
  ### Limitations
 
10
  - Phi-3
11
  - french
12
  - Phi-3-mini
13
+ - french-alpaca
14
  ---
15
 
16
  ## Model Card for Model ID
17
 
18
+ French-Alpaca based on microsoft/Phi-3-mini-4k-instruct
19
+ 4k is the context length (in tokens)
20
 
21
  ![image/jpeg](https://github.com/jpacifico/French-Alpaca/blob/main/Assets/French-Alpaca_500px.png?raw=true)
22
 
 
33
  ### Usage
34
 
35
  ```python
36
+ import torch
37
+ from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
38
+
39
+ torch.random.manual_seed(0)
40
+
41
+ model = AutoModelForCausalLM.from_pretrained(
42
+ "microsoft/Phi-3-mini-4k-instruct",
43
+ device_map="cuda",
44
+ torch_dtype="auto",
45
+ trust_remote_code=True,
46
+ )
47
+ tokenizer = AutoTokenizer.from_pretrained("jpacifico/French-Alpaca-Phi-3-mini-4k-instruct-v1.0")
48
+
49
+ messages = [
50
+ {"role": "system", "content": "Vous êtes un assistant numérique serviable. Veuillez fournir des informations sûres, éthiques et précises à l'utilisateur."},
51
+ {"role": "user", "content": "Pouvez-vous fournir des façons de manger des combinaisons de bananes et de fruits du dragon ?"},
52
+ {"role": "assistant", "content": "Bien sûr ! Voici quelques façons de manger des bananes et des fruits du dragon ensemble : 1. Smoothie à la banane et au fruit du dragon : mixez des bananes et des fruits du dragon avec un peu de lait et de miel. 2. Salade de banane et de fruit du dragon : mélangez des bananes tranchées et des fruits du dragon avec un peu de jus de citron et de miel."},
53
+ {"role": "user", "content": "Et pour résoudre une équation 2x + 3 = 7 ?"},
54
+ ]
55
+
56
+ pipe = pipeline(
57
+ "text-generation",
58
+ model=model,
59
+ tokenizer=tokenizer,
60
+ )
61
+
62
+ generation_args = {
63
+ "max_new_tokens": 500,
64
+ "return_full_text": False,
65
+ "temperature": 0.0,
66
+ "do_sample": False,
67
+ }
68
+
69
+ output = pipe(messages, **generation_args)
70
+ print(output[0]['generated_text'])
71
+
72
  ```
73
 
74
  ### Limitations