huynhkimthien commited on
Commit
d596d0e
·
verified ·
1 Parent(s): 5fab0e2

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -4
app.py CHANGED
@@ -31,15 +31,17 @@ class ChatRequest(BaseModel):
31
  @app.post("/chat")
32
  async def chat(request: ChatRequest):
33
  messages = [{"role": "user", "content": request.message}]
34
-
35
- inputs = tokenizer.apply_chat_template(
 
36
  messages,
37
  add_generation_prompt=True,
38
  return_tensors="pt"
39
  ).to(model.device)
40
 
 
41
  outputs = model.generate(
42
- **inputs,
43
  max_new_tokens=100,
44
  temperature=0.7,
45
  top_k=50,
@@ -48,8 +50,12 @@ async def chat(request: ChatRequest):
48
  do_sample=True
49
  )
50
 
51
- response = tokenizer.decode(outputs[0][inputs["input_ids"].shape[-1]:], skip_special_tokens=True)
 
 
52
  return {"response": response}
 
 
53
  # 🕒 Tác vụ định kỳ để giữ mô hình hoạt động
54
  def keep_model_alive():
55
  while True:
 
31
  @app.post("/chat")
32
  async def chat(request: ChatRequest):
33
  messages = [{"role": "user", "content": request.message}]
34
+
35
+ # Tạo đầu vào từ tokenizer
36
+ input_ids = tokenizer.apply_chat_template(
37
  messages,
38
  add_generation_prompt=True,
39
  return_tensors="pt"
40
  ).to(model.device)
41
 
42
+ # Sinh phản hồi từ mô hình
43
  outputs = model.generate(
44
+ input_ids=input_ids,
45
  max_new_tokens=100,
46
  temperature=0.7,
47
  top_k=50,
 
50
  do_sample=True
51
  )
52
 
53
+ # Giải phản hồi
54
+ response = tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=True)
55
+
56
  return {"response": response}
57
+
58
+
59
  # 🕒 Tác vụ định kỳ để giữ mô hình hoạt động
60
  def keep_model_alive():
61
  while True: