Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -2,7 +2,6 @@
|
|
2 |
# -*- coding: utf-8 -*-
|
3 |
"""
|
4 |
Created on Sat Jun 1 17:30:57 2024
|
5 |
-
|
6 |
@author: air
|
7 |
"""
|
8 |
|
@@ -17,13 +16,19 @@ API_URL = "https://api-inference.huggingface.co/models/condeac/condeac-Llama-2-7
|
|
17 |
hf_token = os.getenv("HF_API_TOKEN")
|
18 |
headers = {"Authorization": f"Bearer {hf_token}"}
|
19 |
|
|
|
|
|
|
|
20 |
# Définir une fonction pour générer du texte en utilisant l'API
|
21 |
-
def generate_text(prompt, max_length=
|
|
|
|
|
|
|
22 |
payload = {
|
23 |
"inputs": prompt,
|
24 |
"parameters": {
|
25 |
"max_length": max_length,
|
26 |
-
"num_beams":
|
27 |
"no_repeat_ngram_size": 2,
|
28 |
"early_stopping": True
|
29 |
}
|
|
|
2 |
# -*- coding: utf-8 -*-
|
3 |
"""
|
4 |
Created on Sat Jun 1 17:30:57 2024
|
|
|
5 |
@author: air
|
6 |
"""
|
7 |
|
|
|
16 |
hf_token = os.getenv("HF_API_TOKEN")
|
17 |
headers = {"Authorization": f"Bearer {hf_token}"}
|
18 |
|
19 |
+
# Limiter la longueur du prompt
|
20 |
+
MAX_PROMPT_LENGTH = 512
|
21 |
+
|
22 |
# Définir une fonction pour générer du texte en utilisant l'API
|
23 |
+
def generate_text(prompt, max_length=200):
|
24 |
+
# Tronquer le prompt si nécessaire
|
25 |
+
prompt = prompt[:MAX_PROMPT_LENGTH]
|
26 |
+
|
27 |
payload = {
|
28 |
"inputs": prompt,
|
29 |
"parameters": {
|
30 |
"max_length": max_length,
|
31 |
+
"num_beams": 3, # Réduire le nombre de faisceaux pour optimiser les ressources
|
32 |
"no_repeat_ngram_size": 2,
|
33 |
"early_stopping": True
|
34 |
}
|