File size: 4,764 Bytes
aa8d99b 7877cdb aa8d99b db29068 aa8d99b db29068 7877cdb db29068 aa8d99b 7877cdb aa8d99b 667e85a aa8d99b 667e85a aa8d99b f3efff2 aa8d99b f3efff2 aa8d99b f3efff2 aa8d99b f3efff2 aa8d99b |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 |
import gradio as gr
import openai
import requests
import os
import fileinput
from dotenv import load_dotenv
title="支援プラン作成アシスタントβ-v3.0"
inputs_label="支援対象の情報を教えてください"
outputs_label="AIの支援プラン"
description="""
あなたが入力した情報を参照して、AIがアセスメントと支援プランを提案します。
"""
article = """
<h5>リリースノート<h5>
<ul>
<li style="font-size: small;">2023-05-01-GPT-4 v1.1</li>
<li style="font-size: small;">2023-05-01-GPT-4 v2.0</li>
<li style="font-size: small;">2023-05-01-GPT-4 v3.0</li>
</ul>
<h5>注意事項</h5>
<ul>
<li style="font-size: small;">当サービスでは、2023年にリリースされたOpenAI社のChatGPT APIのgpt-3.5-turbo-16kを使用しております。</li>
<li style="font-size: small;">当サービスで生成されたコンテンツは、OpenAI が提供する人工知能によるものであり、当サービスやOpenAI がその正確性や信頼性を保証するものではありません。</li>
<li style="font-size: small;"><a href="https://platform.openai.com/docs/usage-policies">OpenAI の利用規約</a>に従い、データ保持しない方針です(ただし諸般の事情によっては変更する可能性はございます)。
<li style="font-size: small;">当サービスで生成されたコンテンツは事実確認をした上で、コンテンツ生成者およびコンテンツ利用者の責任において利用してください。</li>
<li style="font-size: small;">当サービスでの使用により発生したいかなる損害についても、当社は一切の責任を負いません。</li>
<li style="font-size: small;">当サービスはβ版のため、予告なくサービスを終了する場合がございます。</li>
</ul>
"""
load_dotenv()
openai.api_key = os.getenv('OPENAI_API_KEY')
MODEL = "gpt-3.5-turbo-16k"
def get_filetext(filename, cache={}):
if filename in cache:
# キャッシュに保存されている場合は、キャッシュからファイル内容を取得する
return cache[filename]
else:
if not os.path.exists(filename):
raise ValueError(f"ファイル '{filename}' が見つかりませんでした")
with open(filename, "r") as f:
text = f.read()
# ファイル内容をキャッシュする
cache[filename] = text
return text
class OpenAI:
@classmethod
def chat_completion(cls, prompt, start_with=""):
constraints = get_filetext(filename = "constraints.md")
template = get_filetext(filename = "template.md")
# ChatCompletion APIに渡すデータを定義する
data = {
"model": "gpt-3.5-turbo-16k",
"messages": [
{"role": "system", "content": constraints}
,{"role": "system", "content": template}
,{"role": "assistant", "content": "Sure!"}
,{"role": "user", "content": prompt}
,{"role": "assistant", "content": start_with}
],
}
# ChatCompletion APIを呼び出す
response = requests.post(
"https://api.openai.com/v1/chat/completions",
headers={
"Content-Type": "application/json",
"Authorization": f"Bearer {openai.api_key}"
},
json=data
)
# ChatCompletion APIから返された結果を取得する
result = response.json()
print(result)
content = result["choices"][0]["message"]["content"].strip()
return content
class MasasanAI:
@classmethod
def generate_plan_prompt(cls, user_message):
template = get_filetext(filename="template.md")
prompt = f"""
{user_message}
---
上記を元に、下記テンプレートを埋めてください。
---
{template}
"""
return prompt
@classmethod
def generate_plan(cls, user_message):
prompt = MasasanAI.generate_plan_prompt(user_message);
start_with = ""
result = OpenAI.chat_completion(prompt=prompt, start_with=start_with)
return result
def main():
iface = gr.Interface(fn=MasasanAI.generate_plan,
inputs=gr.Textbox(label=inputs_label),
outputs=gr.Textbox(label=outputs_label),
title=title,
description=description,
article=article,
allow_flagging='never'
)
iface.launch()
if __name__ == '__main__':
main() |