File size: 3,263 Bytes
ccf18ad
849dbf1
 
 
 
48a4b65
849dbf1
 
 
1b61fd1
 
 
 
849dbf1
 
 
1b61fd1
849dbf1
1b61fd1
 
 
849dbf1
1b61fd1
849dbf1
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
ccf18ad
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
849dbf1
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
"""
import gradio as gr
from PIL import Image
import requests
from io import BytesIO
import os

# Функция для взаимодействия с моделью на Hugging Face
def process_image(image, prompt):
    # Преобразование объекта Image в байты
    buffered = BytesIO()
    image.save(buffered, format="JPEG")
    image_data = buffered.getvalue()
    
    # Отправка запроса на API Hugging Face
    headers = {
        "Authorization": f"Bearer {os.getenv('HF_TOKEN')}"
    }
    files = {
        "file": ("image.jpg", image_data, "image/jpeg"),
        "data": (None, '{"inputs": {"prompt": ' + f'"{prompt}"' + '}}', "application/json"),
    }
    response = requests.post("https://api-inference.huggingface.co/models/CrucibleAI/ControlNetMediaPipeFace", headers=headers, files=files)
    
    # Обработка ответа
    if response.status_code == 200:
        # Преобразование ответа в изображение
        image = Image.open(BytesIO(response.content))
        return image
    else:
        # В случае ошибки возвращаем информацию об ошибке
        return f"Error: {response.text}"

# Создание Gradio Blocks интерфейса
with gr.Blocks() as demo:
    with gr.Row():
        with gr.Column():
            image_input = gr.Image(type="pil", label="Upload Image")
            prompt_input = gr.Textbox(label="Enter Prompt")
        with gr.Column():
            output_image = gr.Image(type="pil", label="Output Image")
    
    submit_button = gr.Button("Submit")
    submit_button.click(fn=process_image, inputs=[image_input, prompt_input], outputs=output_image)

# Запуск интерфейса
demo.launch()
"""

import gradio as gr
from transformers import StableDiffusionPipeline
from PIL import Image
import torch

# Загрузка предварительно обученной модели
pipe = StableDiffusionPipeline.from_pretrained("stabilityai/stable-diffusion-xl-refiner-1.0")
pipe = pipe.to("cuda")

def image_to_image(image, prompt):
    # Преобразование загруженного изображения в формат, совместимый с моделью
    image = Image.fromarray(image.astype('uint8'), 'RGB')
    
    # Генерация изображения на основе введенного промпта и загруженного изображения
    with torch.autocast("cuda"):
        image = pipe(prompt=prompt, init_image=image, strength=0.8)["sample"][0]  # strength может быть настроен
    
    # Преобразование результата в массив numpy для совместимости с Gradio
    return image

with gr.Blocks() as demo:
    with gr.Row():
        with gr.Column():
            image_input = gr.Image(type="pil")
            prompt_input = gr.Textbox(placeholder="Enter prompt here...")
        with gr.Column():
            output_image = gr.Image(type="pil")

    with gr.Row():
        submit_button = gr.Button("Generate")

    submit_button.click(
        fn=image_to_image,
        inputs=[image_input, prompt_input],
        outputs=output_image
    )

demo.launch()