Rooni commited on
Commit
ee150fa
1 Parent(s): d401370

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +3 -5
app.py CHANGED
@@ -24,11 +24,11 @@ def query(prompt, model, is_negative=False, steps=30, cfg_scale=7, sampler="DPM+
24
  "messages": [
25
  {
26
  "role": "user",
27
- "content": start,
28
  },
29
  {
30
  "role": "user",
31
- "content": instruction,
32
  }
33
  ],
34
  "max_tokens": 4095,
@@ -55,13 +55,11 @@ def query(prompt, model, is_negative=False, steps=30, cfg_scale=7, sampler="DPM+
55
  response_json = response.json()
56
  try:
57
  # Пытаемся извлечь текст из ответа
58
- return response_json["choices"][0]["message"]["content"]
59
  except Exception as e:
60
  # Если есть ошибка в структуре JSON, выводим ее
61
- return f"Error processing the image response: {e}"
62
  else:
63
  # Если произошла ошибка, возвращаем сообщение об ошибке
64
- return f"Error: {response.status_code} - {response.text}"
65
 
66
 
67
  API_TOKEN = random.choice([os.getenv("HF_READ_TOKEN"), os.getenv("HF_READ_TOKEN_2"), os.getenv("HF_READ_TOKEN_3"), os.getenv("HF_READ_TOKEN_4"), os.getenv("HF_READ_TOKEN_5")]) # it is free
 
24
  "messages": [
25
  {
26
  "role": "user",
27
+ "content": "В этом чате тебе будут присылать prompt для нейросетей генераторов изображений. А ты должен будешь пожалуйста улучшить этот prompt.",
28
  },
29
  {
30
  "role": "user",
31
+ "content": prompt,
32
  }
33
  ],
34
  "max_tokens": 4095,
 
55
  response_json = response.json()
56
  try:
57
  # Пытаемся извлечь текст из ответа
58
+ prompt = response_json["choices"][0]["message"]["content"]
59
  except Exception as e:
60
  # Если есть ошибка в структуре JSON, выводим ее
 
61
  else:
62
  # Если произошла ошибка, возвращаем сообщение об ошибке
 
63
 
64
 
65
  API_TOKEN = random.choice([os.getenv("HF_READ_TOKEN"), os.getenv("HF_READ_TOKEN_2"), os.getenv("HF_READ_TOKEN_3"), os.getenv("HF_READ_TOKEN_4"), os.getenv("HF_READ_TOKEN_5")]) # it is free