Spaces:
Sleeping
Sleeping
Commit
·
f095082
1
Parent(s):
b9d3a30
added date into LLM's prompt
Browse files- app.py +1 -1
- rag/synth.py +5 -1
app.py
CHANGED
|
@@ -54,7 +54,7 @@ def bot(history: list[tuple], api_key: str, top_k: int):
|
|
| 54 |
yield history, "### 📚 Sources\n_Ici, vous pourrez consulter les sources utilisées pour formuler la réponse._"
|
| 55 |
return
|
| 56 |
|
| 57 |
-
sources_md = sources_markdown(hits[:k])
|
| 58 |
|
| 59 |
# show a small “thinking” placeholder immediately
|
| 60 |
history[-1] = (user_msg, "⏳ Synthèse en cours…")
|
|
|
|
| 54 |
yield history, "### 📚 Sources\n_Ici, vous pourrez consulter les sources utilisées pour formuler la réponse._"
|
| 55 |
return
|
| 56 |
|
| 57 |
+
# sources_md = sources_markdown(hits[:k])
|
| 58 |
|
| 59 |
# show a small “thinking” placeholder immediately
|
| 60 |
history[-1] = (user_msg, "⏳ Synthèse en cours…")
|
rag/synth.py
CHANGED
|
@@ -2,12 +2,13 @@
|
|
| 2 |
import os
|
| 3 |
from openai import OpenAI
|
| 4 |
from rag.utils import utf8_safe
|
|
|
|
|
|
|
| 5 |
|
| 6 |
LLM_MODEL = os.getenv("LLM_MODEL", "gpt-4o-mini")
|
| 7 |
LLM_BASE_URL = os.getenv("LLM_BASE_URL", "https://api.openai.com/v1")
|
| 8 |
|
| 9 |
def _build_prompt(query, passages):
|
| 10 |
-
from rag.utils import utf8_safe
|
| 11 |
|
| 12 |
# Construire des blocs numérotés et balisés
|
| 13 |
blocks = []
|
|
@@ -25,9 +26,12 @@ def _build_prompt(query, passages):
|
|
| 25 |
|
| 26 |
context = "\n\n".join(blocks)
|
| 27 |
query = utf8_safe(query)
|
|
|
|
|
|
|
| 28 |
|
| 29 |
return (
|
| 30 |
"Tu es un assistant RH chargé de répondre à des questions dans le domaine des ressources humaines en t'appuyant sur les sources fournies.\n"
|
|
|
|
| 31 |
"Consignes :\n"
|
| 32 |
"- Réponds de manière factuelle, concise et polie (vouvoiement).\n"
|
| 33 |
"- Quand tu affirmes un fait, cite tes sources en fin de phrase avec le format [1], [2]… en te basant sur l'index de ces sources (ex: [1] est la source 1, [2] est la source 2, etc.)\n\n"
|
|
|
|
| 2 |
import os
|
| 3 |
from openai import OpenAI
|
| 4 |
from rag.utils import utf8_safe
|
| 5 |
+
from datetime import date
|
| 6 |
+
|
| 7 |
|
| 8 |
LLM_MODEL = os.getenv("LLM_MODEL", "gpt-4o-mini")
|
| 9 |
LLM_BASE_URL = os.getenv("LLM_BASE_URL", "https://api.openai.com/v1")
|
| 10 |
|
| 11 |
def _build_prompt(query, passages):
|
|
|
|
| 12 |
|
| 13 |
# Construire des blocs numérotés et balisés
|
| 14 |
blocks = []
|
|
|
|
| 26 |
|
| 27 |
context = "\n\n".join(blocks)
|
| 28 |
query = utf8_safe(query)
|
| 29 |
+
today = date.today().strftime("%d %B %Y") # e.g. "27 août 2025"
|
| 30 |
+
|
| 31 |
|
| 32 |
return (
|
| 33 |
"Tu es un assistant RH chargé de répondre à des questions dans le domaine des ressources humaines en t'appuyant sur les sources fournies.\n"
|
| 34 |
+
"La date d'aujourd'hui est : {today}.\n\n"
|
| 35 |
"Consignes :\n"
|
| 36 |
"- Réponds de manière factuelle, concise et polie (vouvoiement).\n"
|
| 37 |
"- Quand tu affirmes un fait, cite tes sources en fin de phrase avec le format [1], [2]… en te basant sur l'index de ces sources (ex: [1] est la source 1, [2] est la source 2, etc.)\n\n"
|