Übersicht
PDF-Suzammenfassen ist ein spezialisiertes Modell, das für die Erstellung präziser Zusammenfassungen von Texten optimiert wurde, insbesondere in den Bereichen Netzwerk und IT-Themen. Es basiert auf einer feinabgestimmten Version von BART und wurde mit deutschen Fachtexten trainiert.
Funktionen
- Sprachunterstützung: Optimiert für deutsche Texte.
- Anwendungsbereiche:
- Netzwerktechnologie
- IT-Infrastruktur
- Industrie 4.0
Modell-Details
- Format: safetensors
- Parameter: 406M
- Architektur: Seq2Seq (BART)
Nutzung
Dieses Modell kann über die Hugging Face Inference API oder lokal mit der Transformers-Bibliothek verwendet werden.
Beispielcode
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")
model = AutoModelForSeq2SeqLM.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")
text = "Das ist ein Beispieltext, der zusammengefasst werden soll."
inputs = tokenizer(text, return_tensors="pt", truncation=True)
outputs = model.generate(inputs["input_ids"], max_length=150, min_length=30, length_penalty=2.0, num_beams=4)
summary = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(summary)
Installation
Um dieses Modell lokal zu verwenden, führen Sie folgende Schritte aus:
Installieren Sie die Hugging Face Transformers-Bibliothek:
pip install transformers
Laden Sie das Modell und den Tokenizer herunter:
from transformers import AutoModel, AutoTokenizer
model = AutoModel.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")
tokenizer = AutoTokenizer.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")
Lizenz
Dieses Modell steht unter der Apache 2.0-Lizenz. Für weitere Informationen lesen Sie bitte die Lizenzbedingungen.
- Downloads last month
- 385
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for BabakBagheriGisour/pdf-suzammenfassen
Base model
facebook/bart-large-cnn