Übersicht
PDF-Suzammenfassen ist ein spezialisiertes Modell, das für die Erstellung präziser Zusammenfassungen von Texten optimiert wurde, insbesondere in den Bereichen Netzwerk und IT-Themen. Es basiert auf einer feinabgestimmten Version von BART und wurde mit deutschen Fachtexten trainiert.
Funktionen
- Sprachunterstützung: Optimiert für deutsche Texte.
- Anwendungsbereiche:
- Netzwerktechnologie
- IT-Infrastruktur
- Industrie 4.0
Modell-Details
- Format: safetensors
- Parameter: 406M
- Architektur: Seq2Seq (BART)
Nutzung
Dieses Modell kann über die Hugging Face Inference API oder lokal mit der Transformers-Bibliothek verwendet werden.
Beispielcode
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")
model = AutoModelForSeq2SeqLM.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")
text = "Das ist ein Beispieltext, der zusammengefasst werden soll."
inputs = tokenizer(text, return_tensors="pt", truncation=True)
outputs = model.generate(inputs["input_ids"], max_length=150, min_length=30, length_penalty=2.0, num_beams=4)
summary = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(summary)
Installation
Um dieses Modell lokal zu verwenden, führen Sie folgende Schritte aus:
Installieren Sie die Hugging Face Transformers-Bibliothek:
pip install transformers
Laden Sie das Modell und den Tokenizer herunter:
from transformers import AutoModel, AutoTokenizer
model = AutoModel.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")
tokenizer = AutoTokenizer.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")
Lizenz
Dieses Modell steht unter der Apache 2.0-Lizenz. Für weitere Informationen lesen Sie bitte die Lizenzbedingungen.
- Downloads last month
- 0
Inference Providers
NEW
This model is not currently available via any of the supported third-party Inference Providers, and
the model is not deployed on the HF Inference API.
Model tree for BabakBagheriGisour/pdf-suzammenfassen
Base model
facebook/bart-large-cnn