AtomicGPTs
Collection
Alle AtomicGPTs findest du hier!
•
2 items
•
Updated
AtomicGPT 2.0 ist die neueste Generation unseres KI-Modells und bietet eine deutlich bessere Leistung als unser Vorgänger, AtomicGPT 1.0. Dank eines erheblich erweiterten Datensatzes kann AtomicGPT 2.0 intelligentere Antworten liefern und ein besseres Verständnis der deutschen Sprache demonstrieren.
kkirchheim/german-gpt2-medium
, das bereits eine solide Grundlage für die deutsche Sprache bietet, konnten wir unser Modell effektiver trainieren.transformers
torch
from transformers import pipeline, AutoTokenizer
import torch
# Modell und Tokenizer laden
MODEL_PATH = "Atomic-Ai/AtomicGPT_2"
tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
chatbot = pipeline(
"text-generation",
model=MODEL_PATH,
tokenizer=MODEL_PATH,
device=0 if torch.cuda.is_available() else -1
)
def generate_response(prompt):
output = chatbot(
prompt,
max_new_tokens=256,
eos_token_id=tokenizer.eos_token_id, # Stoppt am <End>-Token
pad_token_id=tokenizer.pad_token_id,
do_sample=True,
temperature=0.7,
top_p=0.9
)
return output[0]['generated_text']
def format_chat(user_input):
return f"<user>{user_input}<End><AI Assistent>"
def extract_assistant_response(full_text):
parts = full_text.split("<AI Assistent>")
if len(parts) > 1:
return parts[1].split("<End>")[0].strip()
return "Error: Response format invalid"
def main():
print("Chat gestartet! Gib 'exit' ein, um zu beenden.")
print("----------------------------------")
while True:
user_input = input("\nDu: ")
if user_input.lower() == 'exit':
break
prompt = format_chat(user_input)
full_response = generate_response(prompt)
assistant_response = extract_assistant_response(full_response)
print(f"\nAI Assistent: {assistant_response}")
if __name__ == "__main__":
main()
Unterstütze uns und werde Teil unserer Community! Discord beitreten
Base model
kkirchheim/german-gpt2-medium