Luc18 commited on
Commit
9d4a816
1 Parent(s): bacdd84

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +15 -8
README.md CHANGED
@@ -25,27 +25,34 @@ pipeline_tag: text-generation
25
 
26
  ## Example
27
  ### Exemple dans le corpus
28
- <code>La traduction de Φασὶ δὲ καὶ Ἀλέξανδρον εἰπεῖν ὡς εἴπερ Ἀλέξανδρος μὴ ἐγεγόνει, ἐθελῆσαι ἂν Διογένης γενέσθαι est:
29
- Diogène dit que si Alexandre avait été moins ambitieux, il aurait bien voulu être Diogène.</code>
 
 
30
  (imprécise: On assure qu’Alexandre disait que s’il n’était pas Alexandre il voudrait être Diogène. selon [5])
31
 
32
  ### Exemple hors corpus
33
- <code>
 
34
  La traduction de Γνῶθι σεαυτόν est Connais-toi toi-même.
35
- </code>
36
 
37
  ### Exemple de thème hors corpus
38
- <code>
 
39
  La traduction de la phrase: J'aime les machines en grec ancien est εἰμὶ δ' ἀγαπῶ τὰ μηχανήματα.
40
- </code>
41
  Ce qui signifie plus exactement "Je suis et j'aime les machines"
42
 
43
  ## Use
44
- <code>from mlx_lm import load, generate
 
 
45
 
46
  model, tokenizer = load("RANDMEDIATION/DiogenialRAG")
47
 
48
- response = generate(model, tokenizer, prompt=input("prompt:"), verbose=True,max_tokens=256,temp=0.8)</code>
 
49
 
50
 
51
  ## References
 
25
 
26
  ## Example
27
  ### Exemple dans le corpus
28
+ ```La traduction de Φασὶ δὲ καὶ Ἀλέξανδρον εἰπεῖν ὡς εἴπερ Ἀλέξανδρος μὴ ἐγεγόνει, ἐθελῆσαι ἂν Διογένης γενέσθαι est:
29
+ Diogène dit que si Alexandre avait été moins ambitieux, il aurait bien voulu être Diogène.
30
+ ```
31
+
32
  (imprécise: On assure qu’Alexandre disait que s’il n’était pas Alexandre il voudrait être Diogène. selon [5])
33
 
34
  ### Exemple hors corpus
35
+
36
+ ```
37
  La traduction de Γνῶθι σεαυτόν est Connais-toi toi-même.
38
+ ```
39
 
40
  ### Exemple de thème hors corpus
41
+
42
+ ```
43
  La traduction de la phrase: J'aime les machines en grec ancien est εἰμὶ δ' ἀγαπῶ τὰ μηχανήματα.
44
+ ```
45
  Ce qui signifie plus exactement "Je suis et j'aime les machines"
46
 
47
  ## Use
48
+
49
+ ```
50
+ from mlx_lm import load, generate
51
 
52
  model, tokenizer = load("RANDMEDIATION/DiogenialRAG")
53
 
54
+ response = generate(model, tokenizer, prompt=input("prompt:"), verbose=True,max_tokens=256,temp=0.8)
55
+ ```
56
 
57
 
58
  ## References