# version - ArcticMonkey:19.03.24:1743 # python core libraries import os import psutil # components from other authors from streamlit_mic_recorder import mic_recorder # core modules from audio_processing.A2T import A2T from audio_processing.T2A import T2A from command.utils import build_chain from llm.llm_factory import LLM_Factory # Можна редагувати аби не повтрювалось greeting_text = "Hi, my name is M8... oops, that's from my future, but right now I'm Chelsea, your personal voice assistant. Ask me anything you want and I'll try to help you. Well, maybe you want to talk about your favourite band, maybe Bring Me The Horizon. You want to talk about Chelsea Smile." llm_model = LLM_Factory() def prepare_cor(input_text: str): return build_chain.build_command_chain().handle_command(input_text) # Базово буде hf, а далі виходячи з завдання буде змінюватися. # Від можливості використовувати AI agent також буде залежати trigger, якщо використовується, то ліпше використовувати lc ніж hf. trigger = {"hf": "effective"} t2a = T2A() t2a.autoplay(greeting_text) def main(): mic = mic_recorder(start_prompt="Record", stop_prompt="Stop", just_once=True) if mic is not None: a2t = A2T(mic["bytes"]) text = a2t.predict() print(text) # Придумати як реалізувати команди # prepare_cor(input_text=text) # Треба для lc реалізувати буде виклик очишення llm = llm_model.create_llm(prompt_entity=text, prompt_id=1, trigger=trigger) response = llm.execution() if llm is not None else "Oops occurred some error. Please try again. Who is Jhon Galt!" # Треба буде переписати клас, передавати текст не через __init__ а в autoplay. t2a.autoplay(response) if __name__ == "__main__": print(f"Total Memory: {psutil.virtual_memory().total / (1024**3):.2f} GB") print(f"Available Memory: {psutil.virtual_memory().available / (1024**3):.2f} GB") print(f"CPU Cores: {psutil.cpu_count()}") print(f"CPU Usage: {psutil.cpu_percent()}%") main()