import gradio as gr import torch import os from huggingface_hub import hf_hub_download import sys import soundfile as sf import numpy as np import logging import tempfile import spaces # Configuration du logger logging.basicConfig(level=logging.DEBUG, format='%(asctime)s - %(levelname)s - %(message)s') #Chemin local de téléchargement des fichiers (il faut s'assurer que le dossier existe) LOCAL_DOWNLOAD_PATH = os.path.dirname(os.path.abspath(__file__)) # Utiliser le chemin du script # Télécharger le script d'inférence repo_id = "dofbi/galsenai-xtts-v2-wolof-inference" inference_file = hf_hub_download(repo_id=repo_id, filename="inference.py", local_dir=LOCAL_DOWNLOAD_PATH) # Ajouter le dossier au chemin de recherche sys.path.insert(0, LOCAL_DOWNLOAD_PATH) # Importer la classe à partir du script d'inférence téléchargé from inference import WolofXTTSInference # Initialiser le modèle une seule fois tts_model = WolofXTTSInference() @spaces.GPU(duration=120) def tts(text: str, audio_reference: tuple[int, np.ndarray]) -> tuple[int, np.ndarray] | str: """ Synthétise de la parole à partir d'un texte en utilisant un audio de référence. Args: text (str): Le texte à synthétiser. audio_reference (tuple[int, np.ndarray]): Un tuple contenant le taux d'échantillonnage et les données audio de référence. Returns: tuple[int, np.ndarray] | str: un tuple contenant le taux d'échantillonnage et les données audio synthétisées, ou un message d'erreur. """ logging.debug(f"tts function called with text: {text} and audio_reference: {audio_reference}") if not text or audio_reference is None: logging.debug("Text or audio reference is missing") return "Veuillez entrer un texte et fournir un audio de référence." try: sample_rate, audio_data = audio_reference # Créer un fichier temporaire pour l'audio de référence with tempfile.NamedTemporaryFile(suffix=".wav", delete=True) as temp_audio_file: sf.write(temp_audio_file.name, audio_data, sample_rate) logging.debug(f"Audio reference saved to {temp_audio_file.name}") # Utiliser la méthode generate_audio de la nouvelle classe audio_output, output_sample_rate = tts_model.generate_audio( text, reference_audio=temp_audio_file.name ) logging.debug(f"Audio generated with sample rate: {output_sample_rate}") return (output_sample_rate, audio_output) except Exception as e: logging.error(f"Error during audio generation: {e}") return f"Une erreur s'est produite lors de la génération audio: {e}" if __name__ == "__main__": demo = gr.Interface( fn=tts, inputs=[ gr.Textbox(label="Text to synthesize"), gr.Audio(type="numpy", label="Reference audio") ], outputs=gr.Audio(label="Synthesized audio"), ) demo.launch()