AtomicGPT 1
AtomicGPT 1 ist ein deutsches KI-Sprachmodell, das auf GPT-2 Medium
basiert und speziell für die Verarbeitung der deutschen Sprache optimiert wurde. Das Modell wurde mit einem 1 MB großen Datensatz trainiert, der Mathematik, Allgemeinwissen und Gesprächsdaten umfasst. Dabei wurde ein besonderer Fokus auf Konversationsfähigkeiten gelegt, da dieser Bereich die meisten Trainingsdaten erhielt.
Trainingsdetails
- Modellbasis:
kkirchheim/german-gpt2-medium
- Datensatzgröße: 1 MB
- Trainingsdauer: 5 Stunden
- Epochen: 100
- Trainingsziele: Verbesserung der generellen Sprachfähigkeiten in Deutsch mit Fokus auf Mathematik, Allgemeinwissen und natürliche Gespräche
Anwendungsmöglichkeiten
AtomicGPT 1 eignet sich für verschiedene Anwendungsfälle, darunter:
- Textgenerierung: Erzeugung natürlicher und zusammenhängender deutscher Texte
- Mathematische Problemstellungen: Unterstützung bei Berechnungen und Problemlösungen
- Allgemeinwissen: Bereitstellung fundierter Antworten zu verschiedenen Themenbereichen
- Dialogsysteme: Interaktive und realistische Konversationen auf Deutsch
Lizenz
AtomicGPT 1 steht unter der MIT-Lizenz, was eine flexible Nutzung und Weiterentwicklung ermöglicht.
Installation & Nutzung
Das Modell kann mit der transformers
-Bibliothek von Hugging Face genutzt werden:
from transformers import GPT2LMHeadModel, AutoTokenizer
model_name = "Atomic-Ai/AtomicGPT-1"
model = GPT2LMHeadModel.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Was ist die Hauptstadt von Deutschland?"
input_ids = tokenizer(prompt, return_tensors="pt").input_ids
output = model.generate(input_ids, max_length=100)
print(tokenizer.decode(output[0], skip_special_tokens=True))
Bild
AtomicGPT 1 ist ein kompaktes, aber leistungsfähiges deutsches Sprachmodell, das für spezifische Anwendungsfälle optimiert wurde. Es kann als Basis für weiterführende Entwicklungen oder als eigenständiges KI-Tool genutzt werden.
- Downloads last month
- 20
Model tree for Atomic-Ai/AtomicGPT-1
Base model
kkirchheim/german-gpt2-medium