Балаганский Никита Николаевич commited on
Commit
124c8d3
1 Parent(s): 8aae6e9
Files changed (2) hide show
  1. app.py +1 -3
  2. generator.py +1 -3
app.py CHANGED
@@ -15,8 +15,7 @@ device = "cuda" if torch.cuda.is_available() else "cpu"
15
 
16
 
17
  def main():
18
- st.subheader(
19
- 'Эта демонстрация позволяет поэксперементировать с моделями, которые оценивают, насколько предлагаемый ответ подходит к контексту диалога.')
20
  cls_model_name = st.selectbox(
21
  'Выберите модель классификации',
22
  ('tinkoff-ai/response-quality-classifier-tiny', 'tinkoff-ai/response-quality-classifier-base',
@@ -30,7 +29,6 @@ def main():
30
  auth_token = os.environ.get('TOKEN') or True
31
  with st.spinner('Running inference...'):
32
  text = inference(lm_model_name=lm_model_name, cls_model_name=cls_model_name, prompt=prompt)
33
- st.text_area(text)
34
 
35
 
36
 
 
15
 
16
 
17
  def main():
18
+ st.subheader("CAIF")
 
19
  cls_model_name = st.selectbox(
20
  'Выберите модель классификации',
21
  ('tinkoff-ai/response-quality-classifier-tiny', 'tinkoff-ai/response-quality-classifier-base',
 
29
  auth_token = os.environ.get('TOKEN') or True
30
  with st.spinner('Running inference...'):
31
  text = inference(lm_model_name=lm_model_name, cls_model_name=cls_model_name, prompt=prompt)
 
32
 
33
 
34
 
generator.py CHANGED
@@ -70,9 +70,7 @@ class Generator:
70
 
71
  return (
72
  [
73
- self.tokenizer.decode(sequence, skip_special_tokens=True)[
74
- len(input_prompt) :
75
- ]
76
  for sequence in input_ids
77
  ],
78
  input_ids,
 
70
 
71
  return (
72
  [
73
+ self.tokenizer.decode(sequence, skip_special_tokens=True)
 
 
74
  for sequence in input_ids
75
  ],
76
  input_ids,