MisterAI commited on
Commit
245ee8f
·
verified ·
1 Parent(s): 2ce08ca

Create app.py

Browse files
Files changed (1) hide show
  1. app.py +36 -0
app.py ADDED
@@ -0,0 +1,36 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ #testing bloom1b 02
2
+ import gradio as gr
3
+ from transformers import AutoModelForCausalLM, AutoTokenizer
4
+
5
+ # Chargement du modèle
6
+ model_name = "MisterAI/bigscience_bloom-560m"
7
+ model = AutoModelForCausalLM.from_pretrained(model_name)
8
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
9
+
10
+ # Fonction pour générer une réponse
11
+ def generate_response(input_text):
12
+ inputs = tokenizer(input_text, return_tensors="pt")
13
+ outputs = model.generate(
14
+ **inputs,
15
+ max_length=100,
16
+ num_return_sequences=1,
17
+ no_repeat_ngram_size=2,
18
+ do_sample=True,
19
+ top_p=0.9,
20
+ temperature=0.7
21
+ )
22
+ response = tokenizer.decode(outputs[0], skip_special_tokens=True)
23
+ return response
24
+
25
+ # Création de la fenêtre de chat
26
+ demo = gr.Interface(
27
+ fn=generate_response,
28
+ inputs="text",
29
+ outputs="text",
30
+ title="Chat avec le modèle",
31
+ description="Entrez votre message pour obtenir une réponse du modèle"
32
+ )
33
+
34
+ # Lancement de la démo
35
+ if __name__ == "__main__":
36
+ demo.launch()