import gradio as gr
import openai
import requests
import os
import fileinput
from dotenv import load_dotenv
title="支援プラン作成アシスタントβ-v3"
inputs_label="支援対象の情報を教えてください"
outputs_label="AIの支援プラン"
description="""
あなたが入力した情報を参照して、AIがアセスメントと支援プランを提案します。
"""
article = """
リリースノート
- 2023-05-01-v1.1
- 2023-05-01-v2.0
- 2023-10-17-v3.1
注意事項
- 当サービスでは、2023年6月14日にリリースされたOpenAI社のChatGPT APIのgpt-3.5-turbo-16kを使用しております。
- 当サービスで生成されたコンテンツは、OpenAI が提供する人工知能によるものであり、当サービスやOpenAI がその正確性や信頼性を保証するものではありません。
- OpenAI の利用規約に従い、データ保持しない方針です(ただし諸般の事情によっては変更する可能性はございます)。
- 当サービスで生成されたコンテンツは事実確認をした上で、コンテンツ生成者およびコンテンツ利用者の責任において利用してください。
- 当サービスでの使用により発生したいかなる損害についても、当社は一切の責任を負いません。
- 当サービスはβ版のため、予告なくサービスを終了する場合がございます。
"""
load_dotenv()
openai.api_key = os.getenv('OPENAI_API_KEY')
MODEL = "gpt-3.5-turbo-16k"
def get_filetext(filename, cache={}):
if filename in cache:
# キャッシュに保存されている場合は、キャッシュからファイル内容を取得する
return cache[filename]
else:
if not os.path.exists(filename):
raise ValueError(f"ファイル '{filename}' が見つかりませんでした")
with open(filename, "r") as f:
text = f.read()
# ファイル内容をキャッシュする
cache[filename] = text
return text
class OpenAI:
@classmethod
def chat_completion(cls, prompt, start_with=""):
constraints = get_filetext(filename = "constraints.md")
template = get_filetext(filename = "template.md")
# ChatCompletion APIに渡すデータを定義する
data = {
"model": "gpt-3.5-turbo-16k",
"messages": [
{"role": "system", "content": constraints}
,{"role": "system", "content": template}
,{"role": "assistant", "content": "Sure!"}
,{"role": "user", "content": prompt}
,{"role": "assistant", "content": start_with}
],
}
# ChatCompletion APIを呼び出す
response = requests.post(
"https://api.openai.com/v1/chat/completions",
headers={
"Content-Type": "application/json",
"Authorization": f"Bearer {openai.api_key}"
},
json=data
)
# ChatCompletion APIから返された結果を取得する
result = response.json()
print(result)
content = result["choices"][0]["message"]["content"].strip()
return content
class MasasanAI:
@classmethod
def generate_plan_prompt(cls, user_message):
template = get_filetext(filename="template.md")
prompt = f"""
{user_message}
---
上記を元に、下記テンプレートを埋めてください。
---
{template}
"""
return prompt
@classmethod
def generate_plan(cls, user_message):
prompt = MasasanAI.generate_plan_prompt(user_message);
start_with = ""
result = OpenAI.chat_completion(prompt=prompt, start_with=start_with)
return result
def main():
iface = gr.Interface(fn=MasasanAI.generate_plan,
inputs=gr.Textbox(label=inputs_label),
outputs=gr.Textbox(label=outputs_label),
title=title,
description=description,
article=article,
allow_flagging='never'
)
iface.launch()
if __name__ == '__main__':
main()