futeboy / app.py
Pablo Sampaio
Correction
905bfbc
raw
history blame
No virus
7.92 kB
import os
import gradio as gr
from openai import OpenAI
LOAD_KEYS_FROM_FILES = False
if LOAD_KEYS_FROM_FILES:
# Load OpenAI API key
with open('KEY_OPENAI', 'r') as file:
os.environ['OPENAI_API_KEY'] = file.read().replace('\n', '')
# Hugging Face API key, used for the serverless access to ASR model
with open('KEY_HF', 'r') as file:
os.environ['HUGGINGFACE_API_KEY'] = file.read().replace('\n', '')
AUDIO_OUT_FILE_PREFIX = "output" # prefixo do nome do arquivo de áudio .wav
TEMPLATE_SYSTEM_MESSAGE = """Sua função é entreter uma criança com idade entre 6 e 8 anos que adora futebol. Diretrizes para a conversa:
- Seu nome é {NAME}
- Pergunte o nome da criança.
- Fale sobre futebol, times, jogadores, seleções e grandes jogos.
- Em especial, foque no futebol do Brasil, Inglaterra e Espanha.
- {PERSONALITY}
- Fale, no máximo, três frases por mensagem.
"""
# Mapeia a personalidade no template e na temperatura
PERSONALITIES = {
"nova": ("Seja amigável e alegre, como uma criança. Tente iniciar novos assuntos, quando a conversa estiver repetitiva. Conte piadas de futebol, de vez em quando.", 0.8),
"echo": ("Seja amigável e objetivo. Tente manter-se no mesmo assunto. Conte alguma curiosidade sobre um grande craque, de vez em quando.", 0.2)
}
# Função para converter o histórico de chat para o formato esperado pela API do OpenAI
def to_openai_chat_history(system_prompt, curr_message, chat_history):
prompt = [ { 'role': 'system', 'content': system_prompt } ]
for turn in chat_history:
user_message, bot_message = turn
prompt.append( {'role': 'user', 'content' : user_message} )
prompt.append( {'role': 'assistant', 'content' : bot_message} )
prompt.append( {'role': 'user', 'content' : curr_message } )
return prompt
def respond(system_prompt, user_message, chat_history, temperature, voice="echo"):
openai_history = to_openai_chat_history(system_prompt, user_message, chat_history)
bot_response = OPENAI_CLIENT.chat.completions.create(
messages=openai_history,
temperature=temperature,
model="gpt-3.5-turbo")
assistant_msg = bot_response.choices[0].message.content
# salva o audio
response = OPENAI_CLIENT.audio.speech.create(
model="tts-1",
voice=voice,
input=assistant_msg
)
output_audio_file = f"{AUDIO_OUT_FILE_PREFIX}-{len(chat_history)+1:03}.wav"
#response.stream_to_file(output_audio_file)
response.write_to_file(output_audio_file)
# adiciona ao chat, com o tipo de dado esperado pelo Gradio
chat_history.append( (user_message, assistant_msg) )
return "", chat_history, output_audio_file
def reset_and_apply(openai_key, voice):
global OPENAI_CLIENT
OPENAI_CLIENT = OpenAI(api_key=openai_key)
return [("", "Olá, vamos falar de futebol?")], AUDIO_OUT_FILE_PREFIX + f"-001-{voice}.wav"
def reset_openai_client(openai_key):
global OPENAI_CLIENT
OPENAI_CLIENT = OpenAI(api_key=openai_key)
def on_voice_change(voice):
persona_description, persona_temperature = PERSONALITIES[voice]
return TEMPLATE_SYSTEM_MESSAGE.format(NAME=voice.upper(), PERSONALITY=persona_description), persona_temperature
USE_LOCAL_ASR_PIPELINE = True
# With pipeline (downloaded model)
if USE_LOCAL_ASR_PIPELINE:
from transformers import pipeline
import numpy as np
global ASR_PIPELINE
ASR_PIPELINE = pipeline(task="automatic-speech-recognition",
model="openai/whisper-large-v3")
#model="distil-whisper/distil-small.en") # English only
else:
import requests
global ASR_API_URL, ASR_API_HEADERS
HF_KEY = os.environ['HUGGINGFACE_API_KEY']
# Serverless API endpoint for OpenAI's Whisper model
ASR_API_URL = "https://api-inference.huggingface.co/models/openai/whisper-large-v3"
ASR_API_HEADERS = {"Authorization": f"Bearer {HF_KEY}"}
def transcribe(audio_in):
if USE_LOCAL_ASR_PIPELINE:
# sampling rate and audio data
#sr, y = audio_in
#y2 = y.astype(np.float32)
#y2 /= np.max(np.abs(y))
#response = ASR_PIPELINE({"sampling_rate": sr, "raw": y})
response = ASR_PIPELINE(audio_in)
else:
# Option2: serverless API
with open(audio_in, "rb") as f:
data = f.read()
response = requests.post(ASR_API_URL, headers=ASR_API_HEADERS, data=data)
response = response.json()
#print(response)
return response['text']
def transcribe_and_respond(audio_in, system_txtbox, user_msg_txb, *args):
user_message = transcribe(audio_in)
outputs = respond(system_txtbox, user_message, *args)
return outputs
OPENAI_CLIENT = None
INITIAL_VOICE = "nova"
with gr.Blocks() as demo:
# aqui, é resetado e instanciado o cliente
initial_chat_history, initial_audio = reset_and_apply(os.environ['OPENAI_API_KEY'], INITIAL_VOICE)
chatbot_area = gr.Chatbot(value=initial_chat_history)
audio_out = gr.Audio(label="Escute a última mensagem", value=initial_audio, autoplay=True, interactive=False)
user_msg_txb = gr.Textbox(label="Mensagem")
#if USE_LOCAL_ASR_PIPELINE:
# audio_in = gr.Audio(label="Mensagem de Áudio", sources=['microphone'], interactive=True, type='numpy')
#else:
# audio_in = gr.Audio(label="Mensagem de Áudio", sources=['microphone'], interactive=True, type='filepath')
audio_in = gr.Audio(label="Mensagem de Áudio", sources=['microphone'], interactive=True, type='filepath')
submit_btn = gr.Button("Enviar")
#clear_btn = gr.ClearButton(components=[user_msg, chatbot], value="Clear console")
reset_btn = gr.Button("Reiniciar")
with gr.Accordion(label="Configurações",open=False):
if LOAD_KEYS_FROM_FILES:
openai_key = gr.Textbox(label="OPENAI API Key", value=os.environ['OPENAI_API_KEY'])
else:
openai_key = gr.Textbox(label="OPENAI API Key", placeholder="Insert your API key here")
openai_key.change(reset_openai_client, inputs=[openai_key])
# opções de vozes e personalidades
voice_ddown = gr.Dropdown(label="Personalidade (muda os dois abaixo)", choices=["nova", "echo"], value=INITIAL_VOICE)
initial_system_message, initial_temperature = on_voice_change(INITIAL_VOICE)
temperature_sldr = gr.Slider(label="Diversidade de respostas", minimum=0.0, maximum=1.0, value=initial_temperature, step=0.1)
with gr.Accordion(label="Avançado",open=False):
# o valor inicial é dado pela system message com o nome e personalidade dados pelos controles acima
system_txtbox = gr.Textbox(label="System message", lines=3, value=initial_system_message)
voice_ddown.change(on_voice_change, inputs=[voice_ddown], outputs=[system_txtbox, temperature_sldr])
#gr.Markdown("*Clique em 'Reiniciar' para aplicar as (a maior parte das) configurações.*")
reset_btn.click(reset_and_apply, inputs=[openai_key, voice_ddown], outputs=[chatbot_area, audio_out])
#audio_in.stop_recording( transcribe, inputs=[audio_in], outputs=[user_msg_txb] )
audio_in.stop_recording( transcribe_and_respond, inputs=[audio_in, system_txtbox, user_msg_txb, chatbot_area, temperature_sldr, voice_ddown], outputs=[user_msg_txb, chatbot_area, audio_out] )
submit_btn.click(respond, inputs=[system_txtbox, user_msg_txb, chatbot_area, temperature_sldr, voice_ddown], outputs=[user_msg_txb, chatbot_area, audio_out]) # Click on the button
user_msg_txb.submit(respond, inputs=[system_txtbox, user_msg_txb, chatbot_area, temperature_sldr, voice_ddown], outputs=[user_msg_txb, chatbot_area, audio_out]) # Press enter to submit - same effect
demo.queue().launch(share=False)