Woziii commited on
Commit
8f371b4
1 Parent(s): 0a65541

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +3 -1
app.py CHANGED
@@ -14,6 +14,7 @@ from bs4 import BeautifulSoup
14
  from concurrent.futures import ThreadPoolExecutor
15
  import re
16
 
 
17
  # --- Configuration du logger ---
18
  logging.basicConfig(
19
  level=logging.INFO,
@@ -28,6 +29,7 @@ logging.basicConfig(
28
  # Assurez-vous que la variable d'environnement HF_TOKEN est définie avec votre token Hugging Face
29
  # Sinon, vous pouvez la définir directement ici
30
  # os.environ["HF_TOKEN"] = "votre_token_huggingface"
 
31
  login(token=os.environ["HF_TOKEN"])
32
 
33
  # === Chargement des modèles ===
@@ -59,7 +61,7 @@ analyzer_model = AutoModelForCausalLM.from_pretrained(
59
  analyzer_tokenizer = AutoTokenizer.from_pretrained(analyzer_model_name)
60
 
61
  # AgentCoder
62
- coder_model_name = "Qwen/Qwen2.5-Coder-14B-Instruct"
63
  coder_model = AutoModelForCausalLM.from_pretrained(
64
  coder_model_name,
65
  torch_dtype="auto",
 
14
  from concurrent.futures import ThreadPoolExecutor
15
  import re
16
 
17
+ os.environ['PYTORCH_CUDA_ALLOC_CONF'] = expandable_segments:True
18
  # --- Configuration du logger ---
19
  logging.basicConfig(
20
  level=logging.INFO,
 
29
  # Assurez-vous que la variable d'environnement HF_TOKEN est définie avec votre token Hugging Face
30
  # Sinon, vous pouvez la définir directement ici
31
  # os.environ["HF_TOKEN"] = "votre_token_huggingface"
32
+
33
  login(token=os.environ["HF_TOKEN"])
34
 
35
  # === Chargement des modèles ===
 
61
  analyzer_tokenizer = AutoTokenizer.from_pretrained(analyzer_model_name)
62
 
63
  # AgentCoder
64
+ coder_model_name = "Qwen/Qwen2.5-Coder-7B-Instruct"
65
  coder_model = AutoModelForCausalLM.from_pretrained(
66
  coder_model_name,
67
  torch_dtype="auto",