# version - ArcticMonkey:19.03.24:1743 # python core libraries import os import psutil # components from other authors from streamlit_mic_recorder import mic_recorder # core modules from audio_processing.A2T import A2T from audio_processing.T2A import T2A from command.utils import build_chain from llm.llm_factory import LLM_Factory # Можна редагувати аби не повтрювалось greeting_text = "Hi, my name is M8... oops, that's from my future, but right now I'm Chelsea, your personal voice assistant. Ask me anything you want and I'll try to help you." llm_model = LLM_Factory() def prepare_cor(input_text: str): return build_chain.build_command_chain().handle_command(input_text) # Базово буде hf, а далі виходячи з завдання буде змінюватися. # Від можливості використовувати AI agent також буде залежати trigger, якщо використовується, то ліпше використовувати lc ніж hf. trigger = {"hf": "effective"} t2a = T2A() def main(): t2a.autoplay(greeting_text, just_once=True) mic = mic_recorder(start_prompt="Record", stop_prompt="Stop", just_once=True) if mic is not None: a2t = A2T(mic["bytes"]) text = a2t.predict() print(text) # Придумати як реалізувати команди # prepare_cor(input_text=text) # Треба для lc реалізувати буде виклик очишення llm = llm_model.create_llm(prompt_entity=text, prompt_id=1, trigger=trigger) response = llm.execution() if llm is not None else "Oops occurred some error. Please try again. Who is Jhon Galt!" # Треба буде переписати клас, передавати текст не через __init__ а в autoplay. t2a.autoplay(response) if __name__ == "__main__": print(f"Total Memory: {psutil.virtual_memory().total / (1024**3):.2f} GB") print(f"Available Memory: {psutil.virtual_memory().available / (1024**3):.2f} GB") print(f"CPU Cores: {psutil.cpu_count()}") print(f"CPU Usage: {psutil.cpu_percent()}%") main()