Spaces:
Sleeping
Sleeping
import os | |
import time | |
import gradio as gr | |
import google.generativeai as genai | |
genai.configure(api_key=os.environ["GEMINI_API_KEY"]) | |
# Create the model | |
generation_config = { | |
"temperature": 1, | |
"top_p": 0.95, | |
"top_k": 64, | |
"max_output_tokens": 8192, | |
"response_mime_type": "text/plain", | |
} | |
model = genai.GenerativeModel( | |
model_name="gemini-1.5-pro-exp-0827", | |
generation_config=generation_config, | |
) | |
def generate_research_plan(question): | |
""" | |
์ง๋ฌธ์ด๋ ํ๊ตฌ์ฃผ์ ๋ฅผ ์ ๋ ฅ๋ฐ์ ํตํฉํ๊ตฌ ๊ณํ์ ์์ฑํ๋ ํจ์ | |
""" | |
# ์ ์ฒด ํ๋กฌํํธ ์์ฑ | |
prompt = f"""ํ์๋ค์ด ์ง๋ฌธ์ด๋ ํ๊ตฌ์ฃผ์ ๋ฅผ ์ ๋ ฅํ๋ฉด ๊ณผํ์๋ก์ ํตํฉํ๊ตฌ์ ์ ์ฐจ์ ๋ฐ๋ผ ์คํ์ ๊ตฌ์ฒด์ , ๋จ๊ณ์ , ์ฒด๊ณ์ ์ผ๋ก ์ค๊ณํ๊ณ ์์๋๋ ๊ฒฐ๊ณผ๋ฅผ ์ค๋ช ํด์ค. | |
์ง๋ฌธ ๋ฐ ํ๊ตฌ ์ฃผ์ : {question} | |
ํตํฉํ๊ตฌ ๊ณผ์ : | |
1. ๋ฌธ์ ์ธ์: | |
2. ๊ฐ์ค ์ค์ : | |
3. ๋ณ์ธ ํต์ : | |
4. ์๋ฃ ํด์ ๋ฐฉ๋ฒ ๋ฐ ์ ์ฐจ: | |
5. ๊ฒฐ๋ก ๋์ถ ๋ฐฉ๋ฒ ๋ฐ ์ ์ฐจ: | |
6. ์์๋๋ ์ผ๋ฐํ: | |
7. ํ๊ตฌ๋ฅผ ์ํ ํ:""" | |
# ์ด๊ธฐ ๋น ํ ์คํธ ์ถ๋ ฅ | |
full_text = "" | |
yield full_text | |
try: | |
# ์คํธ๋ฆฌ๋ฐ ๋ฐฉ์์ผ๋ก ์๋ต ์์ฑ | |
response = model.generate_content([prompt], stream=True) | |
for chunk in response: | |
full_text += chunk.text | |
yield full_text | |
time.sleep(0.05) | |
except Exception as e: | |
yield f"์๋ฌ ๋ฐ์: {str(e)}" | |
# Gradio ์ธํฐํ์ด์ค ์์ฑ | |
iface = gr.Interface( | |
fn=generate_research_plan, | |
inputs=gr.Textbox(lines=5, label="์ง๋ฌธ์ด๋ ํ๊ตฌ์ฃผ์ ๋ฅผ ์ ๋ ฅํ์ธ์"), | |
outputs=gr.Textbox(lines=10, label="ํตํฉํ๊ตฌ ๊ณํ"), | |
title="๐ฌ ํตํฉํ๊ตฌ ๊ณํ ์์ฑ๊ธฐ", | |
description="๊ณผํ ํ๊ตฌ ์ฃผ์ ์ ๋ํ ์์ธํ ๊ณํ์ ์ธ์ฐ์ธ์!" | |
) | |
# ์ธํฐํ์ด์ค ์คํ | |
iface.launch() |