Update README.md
Browse files
README.md
CHANGED
@@ -7,4 +7,35 @@ sdk: static
|
|
7 |
pinned: false
|
8 |
---
|
9 |
|
10 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
7 |
pinned: false
|
8 |
---
|
9 |
|
10 |
+
# Atomic Ai Studio - README
|
11 |
+
|
12 |
+
## Über Atomic Ai Studio
|
13 |
+
Atomic Ai Studio wurde entwickelt, um KI-Modelle zu kreieren, die auch auf Geräten mit begrenzter Hardwareleistung flüssige und natürliche Konversationen ermöglichen. Unsere Modelle sind darauf ausgelegt, effizient auf Nutzerfragen zu antworten und dabei ressourcenschonend zu arbeiten.
|
14 |
+
|
15 |
+
## Funktionsweise
|
16 |
+
Um eine konsistente und korrekte Kommunikation sicherzustellen, müssen die Eingaben an das KI-Modell in einem speziellen Format erfolgen:
|
17 |
+
- **Token-Regel:** Jede Anfrage muss mit dem `<user>` Token beginnen und mit dem `<End>` Token enden.
|
18 |
+
- **Generierungsstopp:** Das Modell besitzt keinen Systemprompt. Stattdessen wird der `<End>` Token genutzt, um zu signalisieren, wann die Ausgabe abgeschlossen ist. Sobald das Modell diesen Token erkennt, stoppt es die weitere Ausgabe.
|
19 |
+
|
20 |
+
## Code Beispiel
|
21 |
+
Das folgende Python-Codebeispiel demonstriert, wie eine Nutzeranfrage korrekt formatiert und wie die Ausgabe des Modells überwacht wird:
|
22 |
+
|
23 |
+
```python
|
24 |
+
def generate_ai_response(user_question):
|
25 |
+
# Füge die erforderlichen Tokens zum Input hinzu
|
26 |
+
prompt = f"<user>{user_question}<End>"
|
27 |
+
|
28 |
+
# Aufruf des KI-Modells (z.B. via API)
|
29 |
+
response = call_atomic_ai_model(prompt)
|
30 |
+
|
31 |
+
# Erkenne den <End> Token und schneide die Antwort entsprechend zu
|
32 |
+
if "<End>" in response:
|
33 |
+
response = response.split("<End>")[0]
|
34 |
+
|
35 |
+
return response
|
36 |
+
|
37 |
+
# Beispielverwendung:
|
38 |
+
frage = "Wie wird das Wetter morgen?"
|
39 |
+
antwort = generate_ai_response(frage)
|
40 |
+
print(antwort)
|
41 |
+
|