Update with commit 48463ebb33c4a3f4035dbdaf55dc43778304f318
Browse files- pipeline_tags.json +4 -0
pipeline_tags.json
CHANGED
@@ -529,19 +529,23 @@
|
|
529 |
{"model_class":"UniSpeechForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|
530 |
{"model_class":"UniSpeechForSequenceClassification","pipeline_tag":"audio-classification","auto_class":"AutoModelForAudioClassification"}
|
531 |
{"model_class":"UniSpeechModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
|
|
532 |
{"model_class":"UniSpeechSatForCTC","pipeline_tag":"automatic-speech-recognition","auto_class":"AutoModelForCTC"}
|
533 |
{"model_class":"UniSpeechSatForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|
534 |
{"model_class":"UniSpeechSatForSequenceClassification","pipeline_tag":"audio-classification","auto_class":"AutoModelForAudioClassification"}
|
|
|
535 |
{"model_class":"UniSpeechSatModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
536 |
{"model_class":"ViTForImageClassification","pipeline_tag":"image-classification","auto_class":"AutoModelForImageClassification"}
|
537 |
{"model_class":"ViTModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
538 |
{"model_class":"VisionTextDualEncoderModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
539 |
{"model_class":"VisualBertForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|
540 |
{"model_class":"VisualBertModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
|
|
541 |
{"model_class":"Wav2Vec2ForCTC","pipeline_tag":"automatic-speech-recognition","auto_class":"AutoModelForCTC"}
|
542 |
{"model_class":"Wav2Vec2ForMaskedLM","pipeline_tag":"fill-mask","auto_class":"AutoModelForMaskedLM"}
|
543 |
{"model_class":"Wav2Vec2ForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|
544 |
{"model_class":"Wav2Vec2ForSequenceClassification","pipeline_tag":"audio-classification","auto_class":"AutoModelForAudioClassification"}
|
|
|
545 |
{"model_class":"Wav2Vec2Model","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
546 |
{"model_class":"XLMForMultipleChoice","pipeline_tag":"multiple-choice","auto_class":"AutoModelForMultipleChoice"}
|
547 |
{"model_class":"XLMForQuestionAnsweringSimple","pipeline_tag":"question-answering","auto_class":"AutoModelForQuestionAnswering"}
|
|
|
529 |
{"model_class":"UniSpeechForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|
530 |
{"model_class":"UniSpeechForSequenceClassification","pipeline_tag":"audio-classification","auto_class":"AutoModelForAudioClassification"}
|
531 |
{"model_class":"UniSpeechModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
532 |
+
{"model_class":"UniSpeechSatForAudioFrameClassification","pipeline_tag":"audio-frame-classification","auto_class":"AutoModelForAudioFrameClassification"}
|
533 |
{"model_class":"UniSpeechSatForCTC","pipeline_tag":"automatic-speech-recognition","auto_class":"AutoModelForCTC"}
|
534 |
{"model_class":"UniSpeechSatForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|
535 |
{"model_class":"UniSpeechSatForSequenceClassification","pipeline_tag":"audio-classification","auto_class":"AutoModelForAudioClassification"}
|
536 |
+
{"model_class":"UniSpeechSatForXVector","pipeline_tag":"audio-xvector","auto_class":"AutoModelForAudioXVector"}
|
537 |
{"model_class":"UniSpeechSatModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
538 |
{"model_class":"ViTForImageClassification","pipeline_tag":"image-classification","auto_class":"AutoModelForImageClassification"}
|
539 |
{"model_class":"ViTModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
540 |
{"model_class":"VisionTextDualEncoderModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
541 |
{"model_class":"VisualBertForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|
542 |
{"model_class":"VisualBertModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
543 |
+
{"model_class":"Wav2Vec2ForAudioFrameClassification","pipeline_tag":"audio-frame-classification","auto_class":"AutoModelForAudioFrameClassification"}
|
544 |
{"model_class":"Wav2Vec2ForCTC","pipeline_tag":"automatic-speech-recognition","auto_class":"AutoModelForCTC"}
|
545 |
{"model_class":"Wav2Vec2ForMaskedLM","pipeline_tag":"fill-mask","auto_class":"AutoModelForMaskedLM"}
|
546 |
{"model_class":"Wav2Vec2ForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|
547 |
{"model_class":"Wav2Vec2ForSequenceClassification","pipeline_tag":"audio-classification","auto_class":"AutoModelForAudioClassification"}
|
548 |
+
{"model_class":"Wav2Vec2ForXVector","pipeline_tag":"audio-xvector","auto_class":"AutoModelForAudioXVector"}
|
549 |
{"model_class":"Wav2Vec2Model","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
550 |
{"model_class":"XLMForMultipleChoice","pipeline_tag":"multiple-choice","auto_class":"AutoModelForMultipleChoice"}
|
551 |
{"model_class":"XLMForQuestionAnsweringSimple","pipeline_tag":"question-answering","auto_class":"AutoModelForQuestionAnswering"}
|