File size: 4,811 Bytes
ee9db7b
 
 
 
 
 
 
dbcbd2f
ee9db7b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
5119650
c01e800
 
ee9db7b
 
 
2dd9280
dbcbd2f
771d1ed
b4e13a0
 
 
 
 
 
 
 
 
 
 
 
 
d116f33
 
 
b46ed36
d116f33
 
 
771d1ed
 
 
b4e13a0
 
d116f33
ee9db7b
 
 
 
 
 
 
 
434f9e3
a1f9461
0015b5c
 
434f9e3
4bef32d
d5e4a67
a1f9461
5183c5a
ee9db7b
ae908fe
ee9db7b
 
 
 
 
 
5562809
ee9db7b
 
 
 
 
 
 
 
 
 
e4d4642
ee9db7b
 
 
 
5562809
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
import openai
import gradio as gr
import pandas as pd
import os
import sys
import datetime
import boto3
from langdetect import detect

openai.api_key = os.environ["OPENAI_API_KEY"]

s3 = boto3.client(
    's3',
    aws_access_key_id=os.environ["AWS_ACCESS_KEY_ID"],
    aws_secret_access_key=os.environ["AWS_SECRET_ACCESS_KEY"],
    region_name='ap-northeast-1'
)

bucket_name = 'kunishou-kaggle'

def evaluate(
    instruction,
    input=None,
    ):
        
    message = f'{instruction} {os.environ["PROMPT"]} {input}'

    message = message[:200]
    
    df_result = pd.DataFrame([[instruction, input, None, None],],columns=["instruction" ,"input", "output", "total_tokens"])

    lang = detect(instruction)

    if lang == "ja":
        response = openai.ChatCompletion.create(
          model="gpt-3.5-turbo",
          # model="gpt-4",
          messages=[
            {"role": "system", "content": "You are a useful assistant."},
            {"role": "user", "content": message },
          ],
          n=1,
          presence_penalty=-2.0,
          max_tokens=512
        )
    
        df_result.iloc[0, 2] = response["choices"][0]["message"]["content"]
        df_result.iloc[0, 3] = response["usage"]["total_tokens"]   
    
        now = datetime.datetime.now()
        file_name = f'chatgpt4/test_{now.strftime("%Y%m%d_%H%M%S")}.csv'
        
        csv_buffer = df_result.to_csv(index=False)
        s3.put_object(Bucket=bucket_name, Key=file_name, Body=csv_buffer)
    elif os.environ["PROMPT2"] in message:
        df_result.iloc[0, 2] = ""
        df_result.iloc[0, 3] = 0          
    else:
        df_result.iloc[0, 2] = ""
        df_result.iloc[0, 3] = 0   
    
    return df_result.iloc[0, 2]


with gr.Blocks() as demo:

    gr.Markdown(
        """
        # 🐸🐄🐹🐧🐷🌸 Rapid GPT-3.5 🚀🐪🦒🐘🐼🐓🐣
          
        ※ GPT-4モデルをGPT-3.5モデルに変更して提供しています。
         
        ・GPT-3.5が利用可能なサービスになります。なお、本サービスに入力した内容や出力結果は大規模言語モデル等の機械学習モデルの作成、AIの研究開発に利用いたします(その代わりにAPI料金はすべて当方が負担します)。
        ・誰でも無料で使用することができます。自由に触ってみて下さい!
        ・アクセスが集中すると動作が遅くなる場合があります。
          
        詳細は以下のnote記事をご参考下さい。
        
        https://note.com/kun1emon/n/n09098da8f39e
        """)
    
    txt = gr.Textbox(lines=2, label="Instruction", placeholder="ここに指示を入力してください.", max_lines=3)
    txt_2 = gr.Textbox(lines=2, label="Additional text", placeholder="文章を要約、翻訳したい場合などに任意で付属テキストを入力して下さい.", max_lines=3)
    txt_3 = gr.Textbox(lines=8, label="Output")
    btn = gr.Button(value="下記の免責事項・利用目的に同意して送信")
    btn.click(evaluate, inputs=[txt, txt_2], outputs=[txt_3], concurrency_limit=10)

    gr.Markdown(
        """
        ### 【免責事項】
        ・本サービスの出力結果には誤りが含まれることがあります。出力結果を使用することによりサービス利用者が損害を被った場合でも、その理由及び原因を問わず当方は一切責任を負わないものとし、 利用者は、本サービスの利用によりこれに同意したものとみなします。
        ・当方は、サービス利用者が本サービスを通じて得た情報等につき、その正確性および特定の目的への適合性等について、いかなる保証もしません。
        ・当方は、サービス利用者が他の利用者あるいは第三者との間に本サービスを通じて提供された情報によって生じた権利侵害等の紛争に関して一切責任を負いません。
        ・サービス利用者による過誤、管理不十分、または第三者による不正使用等により、利用者または第三者が損害を被った場合、当方は当該損害に関して一切責任を負いません。
        
        ### 【取得データの利用目的】
        ・本サービスで取得したデータは大規模言語モデル等の機械学習モデルの作成およびAIの研究開発に利用し、作成されたモデルは商用利用される場合があります。
        ・取得したデータは商用利用可能なデータセットとして個人、大学等の団体、法人などに提供する場合があります。
        """)
    
if __name__ == "__main__":
    demo.queue(max_size=20).launch(max_threads=10)