nlp-cirlce-demo / resources /legal_german_roberta_interface.yml
schmaett
refactored interfaces to load data from yamls
c968e7e
raw
history blame
1.16 kB
title: Legal German RoBERTa
name: huggingface/joelito/legal-german-roberta-large
description: >
Hier zeigen wir ein Modell, welches an unserem Institut darauf vortrainiert wurde, die rechtliche Sprache
besser zu verstehen. Dabei wird in einem Text immer ein Wort (mit dem Stichwort <mask>) maskiert, und das
Modell muss das fehlende Wort voraussagen. Dadurch, dass das Modell auf die rechtliche Sprache spezifiziert
wurde, sind die Voraussagen deutlich besser, wie das nachfolgende Beispiel zeigt (BGE 142 II 268 S. 271,
Erwägung 4.1): Unser spezialisiertes Modell gibt richtigerweise das Wort “Verhältnismässigkeit” aus, während
ein generisches Modell (im anderen Tab) deutlich allgemeinere Wörter wie Freiheit, Demokratie oder Öffentlichkeit
voraussagt. Beide Modelle haben 354 Millionen Parameter.
examples:
# This is how we can do nested lists
- >
Die Beschwerdeführerin rügt sodann eine Verletzung des Verhältnismässigkeitsprinzips. Sie ist der
Auffassung, dass die Publikationstätigkeit der WEKO den Grundsatz der <mask> gemäss Art. 5 Abs. 2
und Art. 36 BV wahren müsse.