AtomicGPT 2.0

Überblick

AtomicGPT 2.0 ist die neueste Generation unseres KI-Modells und bietet eine deutlich bessere Leistung als unser Vorgänger, AtomicGPT 1.0. Dank eines erheblich erweiterten Datensatzes kann AtomicGPT 2.0 intelligentere Antworten liefern und ein besseres Verständnis der deutschen Sprache demonstrieren.

Verbesserungen gegenüber AtomicGPT 1.0

  • Größerer Datensatz: Das Modell wurde mit einem viel umfangreicheren Datensatz trainiert, was zu einer besseren Sprachverarbeitung und allgemein fundierteren Antworten führt.
  • Verbesserte Architektur: Basierend auf kkirchheim/german-gpt2-medium, das bereits eine solide Grundlage für die deutsche Sprache bietet, konnten wir unser Modell effektiver trainieren.
  • Geplante Updates: Das Modell wird keine updates bekommen, weil AtomicGPT 3.0 kommst schneller als erwartet!

Installation & Nutzung

Voraussetzungen

  • Python 3.x
  • transformers
  • torch

Codebeispiel zur Nutzung

from transformers import pipeline, AutoTokenizer
import torch

# Modell und Tokenizer laden
MODEL_PATH = "Atomic-Ai/AtomicGPT_2"
tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
chatbot = pipeline(
    "text-generation",
    model=MODEL_PATH,
    tokenizer=MODEL_PATH,
    device=0 if torch.cuda.is_available() else -1
)

def generate_response(prompt):
    output = chatbot(
        prompt,
        max_new_tokens=256,
        eos_token_id=tokenizer.eos_token_id,  # Stoppt am <End>-Token
        pad_token_id=tokenizer.pad_token_id,
        do_sample=True,
        temperature=0.7,
        top_p=0.9
    )
    return output[0]['generated_text']

def format_chat(user_input):
    return f"<user>{user_input}<End><AI Assistent>"

def extract_assistant_response(full_text):
    parts = full_text.split("<AI Assistent>")
    if len(parts) > 1:
        return parts[1].split("<End>")[0].strip()
    return "Error: Response format invalid"

def main():
    print("Chat gestartet! Gib 'exit' ein, um zu beenden.")
    print("----------------------------------")

    while True:
        user_input = input("\nDu: ")
        if user_input.lower() == 'exit':
            break

        prompt = format_chat(user_input)
        full_response = generate_response(prompt)
        assistant_response = extract_assistant_response(full_response)
        print(f"\nAI Assistent: {assistant_response}")

if __name__ == "__main__":
    main()

Support & Community

Unterstütze uns und werde Teil unserer Community! Discord beitreten

Downloads last month
10
Safetensors
Model size
356M params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.

Model tree for Atomic-Ai/AtomicGPT_2

Finetuned
(2)
this model

Dataset used to train Atomic-Ai/AtomicGPT_2

Space using Atomic-Ai/AtomicGPT_2 1

Collection including Atomic-Ai/AtomicGPT_2