You need to agree to share your contact information to access this model

This repository is publicly accessible, but you have to accept the conditions to access its files and content.

Log in or Sign Up to review the conditions and access this model content.

Übersicht

PDF-Suzammenfassen ist ein spezialisiertes Modell, das für die Erstellung präziser Zusammenfassungen von Texten optimiert wurde, insbesondere in den Bereichen Netzwerk und IT-Themen. Es basiert auf einer feinabgestimmten Version von BART und wurde mit deutschen Fachtexten trainiert.

Funktionen

  • Sprachunterstützung: Optimiert für deutsche Texte.
  • Anwendungsbereiche:
    • Netzwerktechnologie
    • IT-Infrastruktur
    • Industrie 4.0

Modell-Details

  • Format: safetensors
  • Parameter: 406M
  • Architektur: Seq2Seq (BART)

Nutzung

Dieses Modell kann über die Hugging Face Inference API oder lokal mit der Transformers-Bibliothek verwendet werden.

Beispielcode

from transformers import AutoTokenizer, AutoModelForSeq2SeqLM 

tokenizer = AutoTokenizer.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen") 
model = AutoModelForSeq2SeqLM.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")

text = "Das ist ein Beispieltext, der zusammengefasst werden soll." 
inputs = tokenizer(text, return_tensors="pt", truncation=True) 
outputs = model.generate(inputs["input_ids"], max_length=150, min_length=30, length_penalty=2.0, num_beams=4) 
summary = tokenizer.decode(outputs[0], skip_special_tokens=True)

print(summary)

Installation
Um dieses Modell lokal zu verwenden, führen Sie folgende Schritte aus:

Installieren Sie die Hugging Face Transformers-Bibliothek:
pip install transformers

Laden Sie das Modell und den Tokenizer herunter:
from transformers import AutoModel, AutoTokenizer

model = AutoModel.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")
tokenizer = AutoTokenizer.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")

Lizenz
Dieses Modell steht unter der Apache 2.0-Lizenz. Für weitere Informationen lesen Sie bitte die Lizenzbedingungen.
Downloads last month
0
Safetensors
Model size
406M params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and the model is not deployed on the HF Inference API.

Model tree for BabakBagheriGisour/pdf-suzammenfassen

Finetuned
(328)
this model

Space using BabakBagheriGisour/pdf-suzammenfassen 1