Loewolf commited on
Commit
f34656c
·
verified ·
1 Parent(s): 55bcb39

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +32 -1
README.md CHANGED
@@ -7,4 +7,35 @@ sdk: static
7
  pinned: false
8
  ---
9
 
10
- Edit this `README.md` markdown file to author your organization card.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
7
  pinned: false
8
  ---
9
 
10
+ # Atomic Ai Studio - README
11
+
12
+ ## Über Atomic Ai Studio
13
+ Atomic Ai Studio wurde entwickelt, um KI-Modelle zu kreieren, die auch auf Geräten mit begrenzter Hardwareleistung flüssige und natürliche Konversationen ermöglichen. Unsere Modelle sind darauf ausgelegt, effizient auf Nutzerfragen zu antworten und dabei ressourcenschonend zu arbeiten.
14
+
15
+ ## Funktionsweise
16
+ Um eine konsistente und korrekte Kommunikation sicherzustellen, müssen die Eingaben an das KI-Modell in einem speziellen Format erfolgen:
17
+ - **Token-Regel:** Jede Anfrage muss mit dem `<user>` Token beginnen und mit dem `<End>` Token enden.
18
+ - **Generierungsstopp:** Das Modell besitzt keinen Systemprompt. Stattdessen wird der `<End>` Token genutzt, um zu signalisieren, wann die Ausgabe abgeschlossen ist. Sobald das Modell diesen Token erkennt, stoppt es die weitere Ausgabe.
19
+
20
+ ## Code Beispiel
21
+ Das folgende Python-Codebeispiel demonstriert, wie eine Nutzeranfrage korrekt formatiert und wie die Ausgabe des Modells überwacht wird:
22
+
23
+ ```python
24
+ def generate_ai_response(user_question):
25
+ # Füge die erforderlichen Tokens zum Input hinzu
26
+ prompt = f"<user>{user_question}<End>"
27
+
28
+ # Aufruf des KI-Modells (z.B. via API)
29
+ response = call_atomic_ai_model(prompt)
30
+
31
+ # Erkenne den <End> Token und schneide die Antwort entsprechend zu
32
+ if "<End>" in response:
33
+ response = response.split("<End>")[0]
34
+
35
+ return response
36
+
37
+ # Beispielverwendung:
38
+ frage = "Wie wird das Wetter morgen?"
39
+ antwort = generate_ai_response(frage)
40
+ print(antwort)
41
+