Rooni commited on
Commit
c4392b4
1 Parent(s): b73729a

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +12 -12
app.py CHANGED
@@ -1,18 +1,18 @@
1
  import gradio as gr
 
2
 
3
- # Замените 'model_name' на имя вашей модели
4
- model_name = 'runwayml/stable-diffusion-inpainting'
5
- tokenizer = AutoTokenizer.from_pretrained(model_name)
6
- model = AutoModelWithLMHead.from_pretrained(model_name)
7
 
8
- def generate_image(prompt):
9
- inputs = tokenizer.encode(prompt, return_tensors='pt')
10
- outputs = model.generate(inputs, max_length=150, temperature=0.7, num_return_sequences=1)
11
- text = tokenizer.decode(outputs[0], skip_special_tokens=True)
12
- return text
13
 
14
- iface = gr.Interface(fn=generate_image,
15
- inputs=[gr.inputs.Radio(['IC-GAN'], label='Выберите модель'), gr.inputs.Textbox(lines=5, label='Введите промпт')],
16
- outputs='text')
17
 
 
 
 
 
18
  iface.launch()
 
1
  import gradio as gr
2
+ from transformers import pipeline
3
 
4
+ # Выберите модель HuggingFace, которую вы хотите использовать
5
+ model_name = "gpt-2"
 
 
6
 
7
+ # Создайте "pipeline" для вашей модели. В этом примере мы используем текстовый генератор.
8
+ model = pipeline('text-generation', model=model_name)
 
 
 
9
 
10
+ # Определите функцию, которая будет использоваться Gradio для интерактивного ввода и вывода
11
+ def generate_text(inp):
12
+ return model(inp)[0]['generated_text']
13
 
14
+ # Создайте интерфейс Gradio. Вы можете настроить его под свои нужды.
15
+ iface = gr.Interface(fn=generate_text, inputs="text", outputs="text")
16
+
17
+ # Запустите интерфейс
18
  iface.launch()