import gradio as gr from transformers import pipeline # Cargar pipeline de transcripción con Whisper base asr_pipe = pipeline("automatic-speech-recognition", model="openai/whisper-base", device=-1) def transcribe(audio): result = asr_pipe(audio) return result['text'] demo = gr.Interface( fn=transcribe, inputs=gr.Audio(source="upload", type="filepath", label="Audio en inglés"), outputs=gr.Textbox(label="Transcripción en inglés"), title="Transcripción automática de voz a texto (Whisper)", description="Sube un archivo de audio en inglés (.wav, .mp3, etc.) y obtén la transcripción usando Whisper." ) if __name__ == "__main__": demo.launch()