--- widget: - text: "Inom en kommun får offentlig plats användas för det ändamål den är avsedd för. Om den ska användas för annat ändamål än avsett ska tillstånds sökas. Att ansöka om tillstånd ska till exempel ske om man avser att placera ut containrar, uteserveringar, byggnadsställningar, byggsäckar (big bags) eller använder marken för systematisk utplacering av elsparkcyklar." - text: "Det finns ett samband mellan våld i nära relationer och våld mot husdjur. Våld mot husdjur används ofta som en del av våldet mot den våldsutsatta partnern. En sammanfattning av sambandet är att när djur är utsatta för våld är människor i riskzonen och när människor är utsatta för våld är djur i riskzonen. Att lämna en våldsam relation med husdjur kan vara svårt. När den våldsutsatta behöver ta sig till skyddat boende kan djuret ofta inte följa med eftersom de flesta skyddade boenden i Sverige saknar möjlighet för våldsutsatta att kunna ta med sina husdjur. Djurens låga status gör att socialtjänsten oftast inte beviljar stöd för kostnader för djuret. Det innebär att den som är utsatt ofta inte får hjälp med att exempelvis placera hunden på ett hundpensionat och valet står då mellan att lämna kvar djuret och fly själv eller att stanna kvar och många väljer att stanna kvar i relationen för att skydda djuret. Separationsvåldet är ofta det dödligaste våldet – när den våldsutsatta lämnar relationen är hotbilden mot hen som störst. Om djuret finns kvar i hemmet i det läget är risken för våld och även dödligt våld mot djuret hög. Det behövs specialiserade utbildningsinsatser för alla former av skyddade boenden, så att vikten av tryggheten för den våldsutsattas djur tas på allvar. Utöver det behövs även stöd för tillfälliga trygga placeringar av de våldsutsattas husdjur, så att personer som flyttar till vård- och omsorgsboende ska kunna ha kvar sina sällskapsdjur." license: apache-2.0 pipeline_tag: text2text-generation --- A fine-tuned model for generating parliament motion titles in Swedish, based on the [google/mt5-small](https://huggingface.co/google/mt5-small) version of [Google's mT5](https://github.com/google-research/multilingual-t5) mT5 is pretrained on the [mC4](https://www.tensorflow.org/datasets/catalog/c4#c4multilingual) corpus, covering 101 languages: Afrikaans, Albanian, Amharic, Arabic, Armenian, Azerbaijani, Basque, Belarusian, Bengali, Bulgarian, Burmese, Catalan, Cebuano, Chichewa, Chinese, Corsican, Czech, Danish, Dutch, English, Esperanto, Estonian, Filipino, Finnish, French, Galician, Georgian, German, Greek, Gujarati, Haitian Creole, Hausa, Hawaiian, Hebrew, Hindi, Hmong, Hungarian, Icelandic, Igbo, Indonesian, Irish, Italian, Japanese, Javanese, Kannada, Kazakh, Khmer, Korean, Kurdish, Kyrgyz, Lao, Latin, Latvian, Lithuanian, Luxembourgish, Macedonian, Malagasy, Malay, Malayalam, Maltese, Maori, Marathi, Mongolian, Nepali, Norwegian, Pashto, Persian, Polish, Portuguese, Punjabi, Romanian, Russian, Samoan, Scottish Gaelic, Serbian, Shona, Sindhi, Sinhala, Slovak, Slovenian, Somali, Sotho, Spanish, Sundanese, Swahili, Swedish, Tajik, Tamil, Telugu, Thai, Turkish, Ukrainian, Urdu, Uzbek, Vietnamese, Welsh, West Frisian, Xhosa, Yiddish, Yoruba, Zulu. **Note**: mT5 was only pre-trained on mC4 excluding any supervised training. Therefore, this model has to be fine-tuned before it is useable on a downstream task. Pretraining Dataset: [mC4](https://www.tensorflow.org/datasets/catalog/c4#c4multilingual) Other Community Checkpoints: [here](https://huggingface.co/models?search=mt5) Paper: [mT5: A massively multilingual pre-trained text-to-text transformer](https://arxiv.org/abs/2010.11934) Authors: *Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, Colin Raffel* ## Abstract The recent "Text-to-Text Transfer Transformer" (T5) leveraged a unified text-to-text format and scale to attain state-of-the-art results on a wide variety of English-language NLP tasks. In this paper, we introduce mT5, a multilingual variant of T5 that was pre-trained on a new Common Crawl-based dataset covering 101 languages. We describe the design and modified training of mT5 and demonstrate its state-of-the-art performance on many multilingual benchmarks. All of the code and model checkpoints used in this work are publicly available.