Text Generation
Transformers
Safetensors
German
gpt2
legal
KI
Machine Learning
NLP
Transformers
Deep Learning
Sprachmodell
GPT-2
Deutsch
Textgenerierung
Open Source
Forschung
Legal
Automatisierung
Modelltraining
Künstliche Intelligenz
AI Assistent
Natural Language Processing
German NLP
GPT-2 Fine-Tuning
text-generation-inference
Inference Endpoints
license: mit | |
widget: | |
- text: "<user>Wie geht es dir?<End><AI Assistent>" | |
tags: | |
- legal | |
- KI | |
- Machine Learning | |
- NLP | |
- Transformers | |
- Deep Learning | |
- Sprachmodell | |
- GPT-2 | |
- Deutsch | |
- Textgenerierung | |
- Open Source | |
- Forschung | |
- Legal | |
- Automatisierung | |
- Modelltraining | |
- Künstliche Intelligenz | |
- AI Assistent | |
- Natural Language Processing | |
- German NLP | |
- GPT-2 Fine-Tuning | |
datasets: | |
- Atomic-Ai/AtomicGPT2-data | |
language: | |
- de | |
base_model: | |
- kkirchheim/german-gpt2-medium | |
pipeline_tag: text-generation | |
library_name: transformers | |
# AtomicGPT 2.0 | |
## Überblick | |
AtomicGPT 2.0 ist die neueste Generation unseres KI-Modells und bietet eine deutlich bessere Leistung als unser Vorgänger, AtomicGPT 1.0. Dank eines erheblich erweiterten Datensatzes kann AtomicGPT 2.0 intelligentere Antworten liefern und ein besseres Verständnis der deutschen Sprache demonstrieren. | |
## Verbesserungen gegenüber AtomicGPT 1.0 | |
- **Größerer Datensatz**: Das Modell wurde mit einem viel umfangreicheren Datensatz trainiert, was zu einer besseren Sprachverarbeitung und allgemein fundierteren Antworten führt. | |
- **Verbesserte Architektur**: Basierend auf `kkirchheim/german-gpt2-medium`, das bereits eine solide Grundlage für die deutsche Sprache bietet, konnten wir unser Modell effektiver trainieren. | |
- **Geplante Updates**: Das Modell wird keine updates bekommen, weil AtomicGPT 3.0 kommst schneller als erwartet! | |
## Installation & Nutzung | |
### Voraussetzungen | |
- Python 3.x | |
- `transformers` | |
- `torch` | |
### Codebeispiel zur Nutzung | |
```python | |
from transformers import pipeline, AutoTokenizer | |
import torch | |
# Modell und Tokenizer laden | |
MODEL_PATH = "Atomic-Ai/AtomicGPT_2" | |
tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH) | |
chatbot = pipeline( | |
"text-generation", | |
model=MODEL_PATH, | |
tokenizer=MODEL_PATH, | |
device=0 if torch.cuda.is_available() else -1 | |
) | |
def generate_response(prompt): | |
output = chatbot( | |
prompt, | |
max_new_tokens=256, | |
eos_token_id=tokenizer.eos_token_id, # Stoppt am <End>-Token | |
pad_token_id=tokenizer.pad_token_id, | |
do_sample=True, | |
temperature=0.7, | |
top_p=0.9 | |
) | |
return output[0]['generated_text'] | |
def format_chat(user_input): | |
return f"<user>{user_input}<End><AI Assistent>" | |
def extract_assistant_response(full_text): | |
parts = full_text.split("<AI Assistent>") | |
if len(parts) > 1: | |
return parts[1].split("<End>")[0].strip() | |
return "Error: Response format invalid" | |
def main(): | |
print("Chat gestartet! Gib 'exit' ein, um zu beenden.") | |
print("----------------------------------") | |
while True: | |
user_input = input("\nDu: ") | |
if user_input.lower() == 'exit': | |
break | |
prompt = format_chat(user_input) | |
full_response = generate_response(prompt) | |
assistant_response = extract_assistant_response(full_response) | |
print(f"\nAI Assistent: {assistant_response}") | |
if __name__ == "__main__": | |
main() | |
``` | |
## Support & Community | |
Unterstütze uns und werde Teil unserer Community! | |
[Discord beitreten](https://discord.com/channels/1347678618133860424/1347685062258327553) |