Rooni commited on
Commit
ccf2912
1 Parent(s): 47be75a

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +18 -11
app.py CHANGED
@@ -1,18 +1,25 @@
1
  import gradio as gr
2
- from transformers import pipeline
 
 
 
 
3
 
4
- # Выберите модель HuggingFace, которую вы хотите использовать
5
- model_name = "gpt-2"
 
6
 
7
- # Создайте "pipeline" для вашей модели. В этом примере мы используем текстовый генератор.
8
- model = pipeline('text-generation', model=model_name)
 
9
 
10
- # Определите функцию, которая будет использоваться Gradio для интерактивного ввода и вывода
11
- def generate_text(inp):
12
- return model(inp)[0]['generated_text']
13
 
14
- # Создайте интерфейс Gradio. Вы можете настроить его под свои нужды.
15
- iface = gr.Interface(fn=generate_text, inputs="text", outputs="text")
 
 
 
 
16
 
17
- # Запустите интерфейс
18
  iface.launch()
 
1
  import gradio as gr
2
+ from PIL import Image
3
+ from huggingface_hub import hf_hub_url
4
+ from torchvision.transforms import ToTensor
5
+ from torchvision.utils import save_image
6
+ from transformers import CLIPProcessor, CLIPModel
7
 
8
+ def generate_image(prompt, model_name):
9
+ model = CLIPModel.from_pretrained(model_name)
10
+ processor = CLIPProcessor.from_pretrained(model_name)
11
 
12
+ inputs = processor(text=prompt, return_tensors="pt", padding=True, truncation=True)
13
+ outputs = model.generate(**inputs)
14
+ save_image(outputs, 'generated_image.png')
15
 
16
+ return 'generated_image.png'
 
 
17
 
18
+ iface = gr.Interface(
19
+ fn=generate_image,
20
+ inputs=[gr.inputs.Textbox(label="Enter your prompt"),
21
+ gr.inputs.Dropdown(choices=['openai/clip-vit-base-patch32', 'openai/clip-vit-large-patch32'], label="Select a model")],
22
+ outputs=gr.outputs.Image(type="pil"),
23
+ )
24
 
 
25
  iface.launch()