Update with commit f9a0008d2d3082a665f711b24f5314e4a8205fab
Browse filesSee: https://github.com/huggingface/transformers/commit/f9a0008d2d3082a665f711b24f5314e4a8205fab
- frameworks.json +1 -0
- pipeline_tags.json +2 -0
frameworks.json
CHANGED
@@ -100,6 +100,7 @@
|
|
100 |
{"model_type":"unispeech","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
|
101 |
{"model_type":"unispeech-sat","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
|
102 |
{"model_type":"van","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoFeatureExtractor"}
|
|
|
103 |
{"model_type":"vilt","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
|
104 |
{"model_type":"vision-encoder-decoder","pytorch":true,"tensorflow":true,"flax":true,"processor":"AutoTokenizer"}
|
105 |
{"model_type":"vision-text-dual-encoder","pytorch":true,"tensorflow":false,"flax":true,"processor":"AutoProcessor"}
|
|
|
100 |
{"model_type":"unispeech","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
|
101 |
{"model_type":"unispeech-sat","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
|
102 |
{"model_type":"van","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoFeatureExtractor"}
|
103 |
+
{"model_type":"videomae","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoFeatureExtractor"}
|
104 |
{"model_type":"vilt","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
|
105 |
{"model_type":"vision-encoder-decoder","pytorch":true,"tensorflow":true,"flax":true,"processor":"AutoTokenizer"}
|
106 |
{"model_type":"vision-text-dual-encoder","pytorch":true,"tensorflow":false,"flax":true,"processor":"AutoProcessor"}
|
pipeline_tags.json
CHANGED
@@ -685,6 +685,8 @@
|
|
685 |
{"model_class":"ViTMAEForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|
686 |
{"model_class":"ViTMAEModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
687 |
{"model_class":"ViTModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
|
|
|
|
688 |
{"model_class":"ViltModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
689 |
{"model_class":"VisionTextDualEncoderModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
690 |
{"model_class":"VisualBertForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|
|
|
685 |
{"model_class":"ViTMAEForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|
686 |
{"model_class":"ViTMAEModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
687 |
{"model_class":"ViTModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
688 |
+
{"model_class":"VideoMAEForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|
689 |
+
{"model_class":"VideoMAEModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
690 |
{"model_class":"ViltModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
691 |
{"model_class":"VisionTextDualEncoderModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
692 |
{"model_class":"VisualBertForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|