Loewolf commited on
Commit
ef97849
·
verified ·
1 Parent(s): e54449e

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +98 -3
README.md CHANGED
@@ -1,3 +1,98 @@
1
- ---
2
- license: mit
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ tags:
4
+ - legal
5
+ - KI
6
+ - Machine Learning
7
+ - NLP
8
+ - Transformers
9
+ - Deep Learning
10
+ - Sprachmodell
11
+ - GPT-2
12
+ - Deutsch
13
+ - Textgenerierung
14
+ - Open Source
15
+ - Forschung
16
+ - Legal
17
+ - Automatisierung
18
+ - Modelltraining
19
+ - Künstliche Intelligenz
20
+ - AI Assistent
21
+ - Natural Language Processing
22
+ - German NLP
23
+ - GPT-2 Fine-Tuning
24
+ ---
25
+
26
+ # AtomicGPT 2.0
27
+
28
+ ## Überblick
29
+ AtomicGPT 2.0 ist die neueste Generation unseres KI-Modells und bietet eine deutlich bessere Leistung als unser Vorgänger, AtomicGPT 1.0. Dank eines erheblich erweiterten Datensatzes kann AtomicGPT 2.0 intelligentere Antworten liefern und ein besseres Verständnis der deutschen Sprache demonstrieren.
30
+
31
+ ## Verbesserungen gegenüber AtomicGPT 1.0
32
+ - **Größerer Datensatz**: Das Modell wurde mit einem viel umfangreicheren Datensatz trainiert, was zu einer besseren Sprachverarbeitung und allgemein fundierteren Antworten führt.
33
+ - **Verbesserte Architektur**: Basierend auf `kkirchheim/german-gpt2-medium`, das bereits eine solide Grundlage für die deutsche Sprache bietet, konnten wir unser Modell effektiver trainieren.
34
+ - **Drei geplante Updates**: Das Modell wird etwa drei Updates erhalten, um seine Stabilität und Wissensbasis kontinuierlich zu verbessern.
35
+
36
+ ## Installation & Nutzung
37
+ ### Voraussetzungen
38
+ - Python 3.x
39
+ - `transformers`
40
+ - `torch`
41
+
42
+ ### Codebeispiel zur Nutzung
43
+ ```python
44
+ from transformers import pipeline, AutoTokenizer
45
+ import torch
46
+
47
+ # Modell und Tokenizer laden
48
+ MODEL_PATH = "Atomic-Ai/AtomicGPT_2"
49
+ tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
50
+ chatbot = pipeline(
51
+ "text-generation",
52
+ model=MODEL_PATH,
53
+ tokenizer=MODEL_PATH,
54
+ device=0 if torch.cuda.is_available() else -1
55
+ )
56
+
57
+ def generate_response(prompt):
58
+ output = chatbot(
59
+ prompt,
60
+ max_new_tokens=256,
61
+ eos_token_id=tokenizer.eos_token_id, # Stoppt am <End>-Token
62
+ pad_token_id=tokenizer.pad_token_id,
63
+ do_sample=True,
64
+ temperature=0.7,
65
+ top_p=0.9
66
+ )
67
+ return output[0]['generated_text']
68
+
69
+ def format_chat(user_input):
70
+ return f"<user>{user_input}<End><AI Assistent>"
71
+
72
+ def extract_assistant_response(full_text):
73
+ parts = full_text.split("<AI Assistent>")
74
+ if len(parts) > 1:
75
+ return parts[1].split("<End>")[0].strip()
76
+ return "Error: Response format invalid"
77
+
78
+ def main():
79
+ print("Chat gestartet! Gib 'exit' ein, um zu beenden.")
80
+ print("----------------------------------")
81
+
82
+ while True:
83
+ user_input = input("\nDu: ")
84
+ if user_input.lower() == 'exit':
85
+ break
86
+
87
+ prompt = format_chat(user_input)
88
+ full_response = generate_response(prompt)
89
+ assistant_response = extract_assistant_response(full_response)
90
+ print(f"\nAI Assistent: {assistant_response}")
91
+
92
+ if __name__ == "__main__":
93
+ main()
94
+ ```
95
+
96
+ ## Support & Community
97
+ Unterstütze uns und werde Teil unserer Community!
98
+ [Discord beitreten](https://discord.com/channels/1347678618133860424/1347685062258327553)