Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
|
@@ -31,15 +31,17 @@ class ChatRequest(BaseModel):
|
|
| 31 |
@app.post("/chat")
|
| 32 |
async def chat(request: ChatRequest):
|
| 33 |
messages = [{"role": "user", "content": request.message}]
|
| 34 |
-
|
| 35 |
-
|
|
|
|
| 36 |
messages,
|
| 37 |
add_generation_prompt=True,
|
| 38 |
return_tensors="pt"
|
| 39 |
).to(model.device)
|
| 40 |
|
|
|
|
| 41 |
outputs = model.generate(
|
| 42 |
-
|
| 43 |
max_new_tokens=100,
|
| 44 |
temperature=0.7,
|
| 45 |
top_k=50,
|
|
@@ -48,8 +50,12 @@ async def chat(request: ChatRequest):
|
|
| 48 |
do_sample=True
|
| 49 |
)
|
| 50 |
|
| 51 |
-
|
|
|
|
|
|
|
| 52 |
return {"response": response}
|
|
|
|
|
|
|
| 53 |
# 🕒 Tác vụ định kỳ để giữ mô hình hoạt động
|
| 54 |
def keep_model_alive():
|
| 55 |
while True:
|
|
|
|
| 31 |
@app.post("/chat")
|
| 32 |
async def chat(request: ChatRequest):
|
| 33 |
messages = [{"role": "user", "content": request.message}]
|
| 34 |
+
|
| 35 |
+
# Tạo đầu vào từ tokenizer
|
| 36 |
+
input_ids = tokenizer.apply_chat_template(
|
| 37 |
messages,
|
| 38 |
add_generation_prompt=True,
|
| 39 |
return_tensors="pt"
|
| 40 |
).to(model.device)
|
| 41 |
|
| 42 |
+
# Sinh phản hồi từ mô hình
|
| 43 |
outputs = model.generate(
|
| 44 |
+
input_ids=input_ids,
|
| 45 |
max_new_tokens=100,
|
| 46 |
temperature=0.7,
|
| 47 |
top_k=50,
|
|
|
|
| 50 |
do_sample=True
|
| 51 |
)
|
| 52 |
|
| 53 |
+
# Giải mã phản hồi
|
| 54 |
+
response = tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=True)
|
| 55 |
+
|
| 56 |
return {"response": response}
|
| 57 |
+
|
| 58 |
+
|
| 59 |
# 🕒 Tác vụ định kỳ để giữ mô hình hoạt động
|
| 60 |
def keep_model_alive():
|
| 61 |
while True:
|