ankush13r commited on
Commit
5208902
1 Parent(s): 94ca74e

fix bug wav audio int8

Browse files
Files changed (2) hide show
  1. app.py +7 -21
  2. requirements.txt +1 -0
app.py CHANGED
@@ -4,6 +4,7 @@ import gradio as gr
4
  import yt_dlp as youtube_dl
5
  from transformers import pipeline
6
  from transformers.pipelines.audio_utils import ffmpeg_read
 
7
 
8
  import tempfile
9
  import os
@@ -26,11 +27,11 @@ def transcribe(inputs, task):
26
  raise gr.Error("Cap fitxer d'àudio introduit! Si us plau pengeu un fitxer "\
27
  "o enregistreu un àudio abans d'enviar la vostra sol·licitud")
28
 
 
29
  text = pipe(inputs, batch_size=BATCH_SIZE, generate_kwargs={"task": task}, return_timestamps=True)["text"]
30
  return text
31
 
32
 
33
- demo = gr.Blocks()
34
  description_string = "Transcripció automatica de micròfon o de fitxers d'audio.\n Aquest demostrador está desenvolupat per"\
35
  " comprovar els models de reconeixement de parla pels móbils. Per ara utilitza el checkpoint "\
36
  f"[{MODEL_NAME}](https://huggingface.co/{MODEL_NAME}) i la llibreria de 🤗 Transformers per la transcripció."
@@ -38,33 +39,18 @@ description_string = "Transcripció automatica de micròfon o de fitxers d'audio
38
  file_transcribe = gr.Interface(
39
  fn=transcribe,
40
  inputs=[
41
- gr.inputs.Audio(source="upload", type="filepath", optional=True, label="Audio file"),
42
- gr.inputs.Radio(["transcribe", "translate"], label="Task", default="transcribe"),
43
  ],
44
  outputs="text",
45
- layout="horizontal",
46
- theme="huggingface",
47
  title="Transcripció automàtica d'àudio",
48
  description=(description_string),
49
  allow_flagging="never",
50
  )
51
 
52
- mf_transcribe = gr.Interface(
53
- fn=transcribe,
54
- inputs=[
55
- gr.inputs.Audio(source="microphone", type="filepath", optional=True),
56
- gr.inputs.Radio(["transcribe", "translate"], label="Task", default="transcribe"),
57
- ],
58
- outputs="text",
59
- layout="horizontal",
60
- theme="huggingface",
61
- title="Whisper Large V3: Transcribe Audio",
62
- description=(description_string),
63
- allow_flagging="never",
64
- )
65
 
66
- with demo:
67
- gr.TabbedInterface([file_transcribe, mf_transcribe], ["Fitxer d'Àudio", "Micròfon"])
68
 
69
- demo.launch(enable_queue=True)
 
70
 
 
4
  import yt_dlp as youtube_dl
5
  from transformers import pipeline
6
  from transformers.pipelines.audio_utils import ffmpeg_read
7
+ from AinaTheme import theme
8
 
9
  import tempfile
10
  import os
 
27
  raise gr.Error("Cap fitxer d'àudio introduit! Si us plau pengeu un fitxer "\
28
  "o enregistreu un àudio abans d'enviar la vostra sol·licitud")
29
 
30
+
31
  text = pipe(inputs, batch_size=BATCH_SIZE, generate_kwargs={"task": task}, return_timestamps=True)["text"]
32
  return text
33
 
34
 
 
35
  description_string = "Transcripció automatica de micròfon o de fitxers d'audio.\n Aquest demostrador está desenvolupat per"\
36
  " comprovar els models de reconeixement de parla pels móbils. Per ara utilitza el checkpoint "\
37
  f"[{MODEL_NAME}](https://huggingface.co/{MODEL_NAME}) i la llibreria de 🤗 Transformers per la transcripció."
 
39
  file_transcribe = gr.Interface(
40
  fn=transcribe,
41
  inputs=[
42
+ gr.Audio(sources=["upload", "microphone"], type="filepath", label="Audio"),
43
+ gr.Radio(["transcribe", "translate"], label="Task", value="transcribe"),
44
  ],
45
  outputs="text",
 
 
46
  title="Transcripció automàtica d'àudio",
47
  description=(description_string),
48
  allow_flagging="never",
49
  )
50
 
 
 
 
 
 
 
 
 
 
 
 
 
 
51
 
52
+ demo = gr.TabbedInterface([file_transcribe], ["Fitxer"], theme=theme)
 
53
 
54
+ if __name__ == "__main__":
55
+ demo.launch()
56
 
requirements.txt CHANGED
@@ -1,3 +1,4 @@
1
  git+https://github.com/huggingface/transformers
2
  torch
3
  yt-dlp
 
 
1
  git+https://github.com/huggingface/transformers
2
  torch
3
  yt-dlp
4
+ gradio==4.20.0