Text Generation
Transformers
Safetensors
German
gpt2
legal
KI
Machine Learning
NLP
Transformers
Deep Learning
Sprachmodell
GPT-2
Deutsch
Textgenerierung
Open Source
Forschung
Legal
Automatisierung
Modelltraining
Künstliche Intelligenz
AI Assistent
Natural Language Processing
German NLP
GPT-2 Fine-Tuning
Chatbot
Low-End Hardware
Budget Server
Effizientes Modell
Sprachverarbeitung
Smart AI
Textanalyse
KI-Optimierung
AI-Training
Intelligente Antworten
text-generation-inference
| license: mit | |
| datasets: | |
| - Atomic-Ai/AtomicGPT-3.0_Dataset | |
| language: | |
| - de | |
| base_model: | |
| - kkirchheim/german-gpt2-medium | |
| pipeline_tag: text-generation | |
| library_name: transformers | |
| tags: | |
| - legal | |
| - KI | |
| - Machine Learning | |
| - NLP | |
| - Transformers | |
| - Deep Learning | |
| - Sprachmodell | |
| - GPT-2 | |
| - Deutsch | |
| - Textgenerierung | |
| - Open Source | |
| - Forschung | |
| - Legal | |
| - Automatisierung | |
| - Modelltraining | |
| - Künstliche Intelligenz | |
| - AI Assistent | |
| - Natural Language Processing | |
| - German NLP | |
| - GPT-2 Fine-Tuning | |
| - Chatbot | |
| - Low-End Hardware | |
| - Budget Server | |
| - Effizientes Modell | |
| - Sprachverarbeitung | |
| - Smart AI | |
| - Textanalyse | |
| - KI-Optimierung | |
| - AI-Training | |
| - Intelligente Antworten | |
| # AtomicGPT 3.0 | |
| ## Überblick | |
| AtomicGPT 3.0 ist die neueste und leistungsstärkste Version unserer KI, die das Chatten und die Interaktion auf ein neues Level hebt! Es basiert auf einem erweiterten 50MB großen Datensatz und wurde gezielt optimiert, um intelligentere und kontextbezogene Antworten zu liefern. Die Trainingszeit betrug 10 Stunden, was eine perfekte Balance zwischen Effizienz und Qualität bietet. | |
| ## Vergleiche | |
| <table> | |
| <thead> | |
| <tr> | |
| <th>Aufgaben</th> | |
| <th>L-GPT_1</th> | |
| <th>L-GPT_1.1</th> | |
| <th>L-GPT_1.5</th> | |
| <th>L-GPT_1.5 mini</th> | |
| <th>AtomicGPT 1.0<</th> | |
| <th>AtomicGPT 2.0</th> | |
| <th>AtomicGPT 3.0</th> | |
| </tr> | |
| </thead> | |
| <tbody> | |
| <tr> | |
| <td>Q&A</td> | |
| <td>7.5%</td> | |
| <td>44.17%</td> | |
| <td>73.33%</td> | |
| <td>64.17%</td> | |
| <td>58.33%</td> | |
| <td>59.17%</td> | |
| <td>90%</td> | |
| </tr> | |
| </tbody> | |
| </table> | |
| ## Warum ist AtomicGPT 3.0 besser als AtomicGPT 2.0? | |
| AtomicGPT 3.0 übertrifft die vorherige Version in mehreren wichtigen Aspekten: | |
| - **Erweiterter Datensatz**: Mit einem 50MB großen Trainingsdatensatz werden nun noch präzisere und kontextbezogene Antworten generiert. | |
| - **Viel bessere Antworten auf Fragen**: Das Modell versteht Anfragen besser, kann tiefere Kontexte erfassen und gibt relevantere Antworten. | |
| - **Mehr Wissen und Sprachverständnis**: Durch das größere Trainingsset und optimierte Algorithmen hat AtomicGPT 3.0 ein höheres Sprachverständnis und kann sich besser an verschiedene Fragestellungen anpassen. | |
| - **Gleiche bewährte Architektur**: Das Modell basiert weiterhin auf `kkirchheim/german-gpt2-medium`, was das Training auf Deutsch besonders effektiv macht. | |
| - **Optimiert für Low-End-Hardware & Budget-Server**: AtomicGPT 3.0 wurde effizient trainiert, sodass es auch auf leistungsschwachen Rechnern problemlos läuft. | |
| ## Training | |
| - **Stunden von Training**: 10 Stunden | |
| - **Epochs von Training**: 1 Epoch | |
| ## Installation & Nutzung | |
| ### Voraussetzungen | |
| Um AtomicGPT 3.0 zu verwenden, benötigst du folgende Abhängigkeiten: | |
| - Python 3.x | |
| - `transformers` | |
| - `torch` | |
| ### Schnellstart – Codebeispiel | |
| ```python | |
| from transformers import pipeline, AutoTokenizer | |
| import torch | |
| # Modell und Tokenizer laden | |
| MODEL_PATH = "Atomic-Ai/AtomicGPT-3" | |
| tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH) | |
| chatbot = pipeline( | |
| "text-generation", | |
| model=MODEL_PATH, | |
| tokenizer=MODEL_PATH, | |
| device=0 if torch.cuda.is_available() else -1 | |
| ) | |
| def generate_response(prompt): | |
| output = chatbot( | |
| prompt, | |
| max_new_tokens=256, | |
| eos_token_id=tokenizer.eos_token_id, # Stoppt am <End>-Token | |
| pad_token_id=tokenizer.pad_token_id, | |
| do_sample=True, | |
| temperature=0.7, | |
| top_p=0.9 | |
| ) | |
| return output[0]['generated_text'] | |
| def format_chat(user_input): | |
| return f"<user>{user_input}<End><AI Assistent>" | |
| def extract_assistant_response(full_text): | |
| parts = full_text.split("<AI Assistent>") | |
| if len(parts) > 1: | |
| return parts[1].split("<End>")[0].strip() | |
| return "Error: Response format invalid" | |
| def main(): | |
| print("Chat gestartet! Gib 'exit' ein, um zu beenden.") | |
| print("----------------------------------") | |
| while True: | |
| user_input = input("\nDu: ") | |
| if user_input.lower() == 'exit': | |
| break | |
| prompt = format_chat(user_input) | |
| full_response = generate_response(prompt) | |
| assistant_response = extract_assistant_response(full_response) | |
| print(f"\nAI Assistent: {assistant_response}") | |
| if __name__ == "__main__": | |
| main() | |
| ``` | |
| ## Support & Community | |
| Unterstütze uns und werde Teil unserer Community! Trete unserem Discord-Server bei und diskutiere mit anderen Entwicklern und KI-Enthusiasten. | |
| [Discord beitreten](https://discord.com/channels/1347678618133860424/1347685062258327553) | |
| ## Kleiner Leak | |
| **Mini** | |