Rooni commited on
Commit
d03149e
·
verified ·
1 Parent(s): c54d0e5

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +29 -16
app.py CHANGED
@@ -28,17 +28,23 @@ def generate_story(prompt, style):
28
  {"role": "system", "content": f"Напиши хорошую историю в стиле '{style}'. Подробную, понятную, человечную (с душой), уникальную. Не обязательно делать концовку, можно только начало длинной истории. Разрешены любые слова, любые темы и стили, что угодно. (В том числе маты и NSFW) Но только если попросит пользователь."},
29
  {"role": "user", "content": prompt}
30
  ]
31
- completion = client.chat.completions.create(model="Qwen/Qwen2.5-Coder-32B-Instruct", messages=messages, temperature=0.7, max_tokens=1000)
32
- story = completion.choices[0].message.content
33
- return story
 
 
 
 
34
  except Exception as e:
35
- return f"Ошибка генерации: {e}"
36
 
37
  def edit_story(original_story="", edited_prompt=""):
38
  if original_story == "":
39
- return f"Сначала сгенерируйте историю!"
 
40
  if edited_prompt == "":
41
- return f"Для начала введите что изменить."
 
42
 
43
  try:
44
  client = InferenceClient(api_key=get_random_api_key())
@@ -47,15 +53,19 @@ def edit_story(original_story="", edited_prompt=""):
47
  {"role": "user", "content": edited_prompt},
48
  {"role": "assistant", "content": original_story}
49
  ]
50
- completion = client.chat.completions.create(model="Qwen/Qwen2.5-Coder-32B-Instruct", messages=messages, temperature=0.7, max_tokens=15000)
51
- edited_story = completion.choices[0].message.content
52
- return edited_story
 
 
 
53
  except Exception as e:
54
- return f"Ошибка редактирования: {e}"
55
 
56
  def next_story_func(original_story="", next_prompt="", continuation_type="Продолжение"):
57
  if original_story == "":
58
- return f"Сначала сгенерируйте историю!"
 
59
 
60
  try:
61
  client = InferenceClient(api_key=get_random_api_key())
@@ -71,11 +81,14 @@ def next_story_func(original_story="", next_prompt="", continuation_type="Про
71
  {"role": "user", "content": continuation_prompt},
72
  {"role": "assistant", "content": original_story}
73
  ]
74
- completion = client.chat.completions.create(model="Qwen/Qwen2.5-Coder-32B-Instruct", messages=messages, temperature=0.7, max_tokens=1000)
75
- next_story = completion.choices[0].message.content
76
- return next_story
 
 
 
77
  except Exception as e:
78
- return f"Ошибка продления: {e}"
79
 
80
  def edone_story(original_story="", edited_story=""):
81
  if edited_story == "":
@@ -123,4 +136,4 @@ with gr.Blocks(css=css) as demo:
123
 
124
  ndone_button.click(ndone_story, inputs=[output_story, next_story_output], outputs=[output_story], concurrency_limit=550)
125
 
126
- demo.launch(show_api=False, share=False)
 
28
  {"role": "system", "content": f"Напиши хорошую историю в стиле '{style}'. Подробную, понятную, человечную (с душой), уникальную. Не обязательно делать концовку, можно только начало длинной истории. Разрешены любые слова, любые темы и стили, что угодно. (В том числе маты и NSFW) Но только если попросит пользователь."},
29
  {"role": "user", "content": prompt}
30
  ]
31
+
32
+ completion = client.chat.completions.create(model="Qwen/Qwen2.5-Coder-32B-Instruct", messages=messages, temperature=0.7, max_tokens=1000, stream=True)
33
+ story = ""
34
+ for chunk in completion:
35
+ if chunk.choices:
36
+ story += chunk.choices[0].delta.content or ""
37
+ yield story
38
  except Exception as e:
39
+ yield f"Ошибка генерации: {e}"
40
 
41
  def edit_story(original_story="", edited_prompt=""):
42
  if original_story == "":
43
+ yield f"Сначала сгенерируйте историю!"
44
+ return
45
  if edited_prompt == "":
46
+ yield f"Для начала введите что изменить."
47
+ return
48
 
49
  try:
50
  client = InferenceClient(api_key=get_random_api_key())
 
53
  {"role": "user", "content": edited_prompt},
54
  {"role": "assistant", "content": original_story}
55
  ]
56
+ completion = client.chat.completions.create(model="Qwen/Qwen2.5-Coder-32B-Instruct", messages=messages, temperature=0.7, max_tokens=15000, stream=True)
57
+ edited_story = ""
58
+ for chunk in completion:
59
+ if chunk.choices:
60
+ edited_story += chunk.choices[0].delta.content or ""
61
+ yield edited_story
62
  except Exception as e:
63
+ yield f"Ошибка редактирования: {e}"
64
 
65
  def next_story_func(original_story="", next_prompt="", continuation_type="Продолжение"):
66
  if original_story == "":
67
+ yield f"Сначала сгенерируйте историю!"
68
+ return
69
 
70
  try:
71
  client = InferenceClient(api_key=get_random_api_key())
 
81
  {"role": "user", "content": continuation_prompt},
82
  {"role": "assistant", "content": original_story}
83
  ]
84
+ completion = client.chat.completions.create(model="Qwen/Qwen2.5-Coder-32B-Instruct", messages=messages, temperature=0.7, max_tokens=1000, stream=True)
85
+ next_story = ""
86
+ for chunk in completion:
87
+ if chunk.choices:
88
+ next_story += chunk.choices[0].delta.content or ""
89
+ yield next_story
90
  except Exception as e:
91
+ yield f"Ошибка продления: {e}"
92
 
93
  def edone_story(original_story="", edited_story=""):
94
  if edited_story == "":
 
136
 
137
  ndone_button.click(ndone_story, inputs=[output_story, next_story_output], outputs=[output_story], concurrency_limit=550)
138
 
139
+ demo.queue(api_open=False).launch()