AtomicGPT 1

AtomicGPT 1 ist ein deutsches KI-Sprachmodell, das auf GPT-2 Medium basiert und speziell für die Verarbeitung der deutschen Sprache optimiert wurde. Das Modell wurde mit einem 1 MB großen Datensatz trainiert, der Mathematik, Allgemeinwissen und Gesprächsdaten umfasst. Dabei wurde ein besonderer Fokus auf Konversationsfähigkeiten gelegt, da dieser Bereich die meisten Trainingsdaten erhielt.

Trainingsdetails

  • Modellbasis: kkirchheim/german-gpt2-medium
  • Datensatzgröße: 1 MB
  • Trainingsdauer: 5 Stunden
  • Epochen: 100
  • Trainingsziele: Verbesserung der generellen Sprachfähigkeiten in Deutsch mit Fokus auf Mathematik, Allgemeinwissen und natürliche Gespräche

Anwendungsmöglichkeiten

AtomicGPT 1 eignet sich für verschiedene Anwendungsfälle, darunter:

  • Textgenerierung: Erzeugung natürlicher und zusammenhängender deutscher Texte
  • Mathematische Problemstellungen: Unterstützung bei Berechnungen und Problemlösungen
  • Allgemeinwissen: Bereitstellung fundierter Antworten zu verschiedenen Themenbereichen
  • Dialogsysteme: Interaktive und realistische Konversationen auf Deutsch

Lizenz

AtomicGPT 1 steht unter der MIT-Lizenz, was eine flexible Nutzung und Weiterentwicklung ermöglicht.

Installation & Nutzung

Das Modell kann mit der transformers-Bibliothek von Hugging Face genutzt werden:

from transformers import GPT2LMHeadModel, AutoTokenizer

model_name = "Atomic-Ai/AtomicGPT-1"
model = GPT2LMHeadModel.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

prompt = "Was ist die Hauptstadt von Deutschland?"
input_ids = tokenizer(prompt, return_tensors="pt").input_ids
output = model.generate(input_ids, max_length=100)
print(tokenizer.decode(output[0], skip_special_tokens=True))

Bild

AtomicGPT 1


AtomicGPT 1 ist ein kompaktes, aber leistungsfähiges deutsches Sprachmodell, das für spezifische Anwendungsfälle optimiert wurde. Es kann als Basis für weiterführende Entwicklungen oder als eigenständiges KI-Tool genutzt werden.

Downloads last month
20
Safetensors
Model size
356M params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The HF Inference API does not support text-generation models for Pytorch library.

Model tree for Atomic-Ai/AtomicGPT-1

Finetuned
(2)
this model

Collection including Atomic-Ai/AtomicGPT-1