condeac commited on
Commit
c1de63a
1 Parent(s): f79a135

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +8 -3
app.py CHANGED
@@ -2,7 +2,6 @@
2
  # -*- coding: utf-8 -*-
3
  """
4
  Created on Sat Jun 1 17:30:57 2024
5
-
6
  @author: air
7
  """
8
 
@@ -17,13 +16,19 @@ API_URL = "https://api-inference.huggingface.co/models/condeac/condeac-Llama-2-7
17
  hf_token = os.getenv("HF_API_TOKEN")
18
  headers = {"Authorization": f"Bearer {hf_token}"}
19
 
 
 
 
20
  # Définir une fonction pour générer du texte en utilisant l'API
21
- def generate_text(prompt, max_length=2000):
 
 
 
22
  payload = {
23
  "inputs": prompt,
24
  "parameters": {
25
  "max_length": max_length,
26
- "num_beams": 5,
27
  "no_repeat_ngram_size": 2,
28
  "early_stopping": True
29
  }
 
2
  # -*- coding: utf-8 -*-
3
  """
4
  Created on Sat Jun 1 17:30:57 2024
 
5
  @author: air
6
  """
7
 
 
16
  hf_token = os.getenv("HF_API_TOKEN")
17
  headers = {"Authorization": f"Bearer {hf_token}"}
18
 
19
+ # Limiter la longueur du prompt
20
+ MAX_PROMPT_LENGTH = 512
21
+
22
  # Définir une fonction pour générer du texte en utilisant l'API
23
+ def generate_text(prompt, max_length=200):
24
+ # Tronquer le prompt si nécessaire
25
+ prompt = prompt[:MAX_PROMPT_LENGTH]
26
+
27
  payload = {
28
  "inputs": prompt,
29
  "parameters": {
30
  "max_length": max_length,
31
+ "num_beams": 3, # Réduire le nombre de faisceaux pour optimiser les ressources
32
  "no_repeat_ngram_size": 2,
33
  "early_stopping": True
34
  }