Spaces:
Running
on
Zero
Running
on
Zero
Update step03_chatbot.py
Browse files- step03_chatbot.py +5 -5
step03_chatbot.py
CHANGED
@@ -723,7 +723,7 @@ class GenericRAGChatbot:
|
|
723 |
except:
|
724 |
return 0.0
|
725 |
|
726 |
-
@spaces.GPU(duration=
|
727 |
def search_documents(self, query: str, final_k: int = None, use_reranking: bool = None) -> List[Dict]:
|
728 |
"""
|
729 |
Recherche avancée avec reranking en deux étapes
|
@@ -820,7 +820,7 @@ class GenericRAGChatbot:
|
|
820 |
|
821 |
return final_results
|
822 |
|
823 |
-
@spaces.GPU(duration=
|
824 |
def generate_response_stream(self, query: str, context: str, history: List = None):
|
825 |
"""
|
826 |
Génère une réponse streamée basée sur le contexte et l'historique
|
@@ -914,7 +914,7 @@ Instructions importantes:
|
|
914 |
except Exception as e:
|
915 |
yield f"❌ Erreur lors de la génération: {str(e)}"
|
916 |
|
917 |
-
@spaces.GPU(duration=
|
918 |
def generate_response(self, query: str, context: str, history: List = None) -> str:
|
919 |
"""
|
920 |
Génère une réponse basée sur le contexte et l'historique
|
@@ -999,7 +999,7 @@ Réponds à cette question en te basant sur le contexte fourni."""
|
|
999 |
print(f"❌ Erreur lors de la génération: {e}")
|
1000 |
return f"❌ Erreur lors de la génération de la réponse: {str(e)}"
|
1001 |
|
1002 |
-
@spaces.GPU(duration=
|
1003 |
def stream_response_with_tools(self, query: str, history, top_k: int = None, use_reranking: bool = None):
|
1004 |
"""
|
1005 |
Génère une réponse streamée avec affichage visuel des tools et reranking Qwen3
|
@@ -1208,7 +1208,7 @@ def _ensure_chatmessages(history):
|
|
1208 |
return result
|
1209 |
|
1210 |
|
1211 |
-
@spaces.GPU(duration=
|
1212 |
def chat_with_generic_rag(message, history, top_k, use_reranking):
|
1213 |
"""
|
1214 |
Interface entre Gradio et le système RAG générique avec contrôles avancés.
|
|
|
723 |
except:
|
724 |
return 0.0
|
725 |
|
726 |
+
@spaces.GPU(duration=60)
|
727 |
def search_documents(self, query: str, final_k: int = None, use_reranking: bool = None) -> List[Dict]:
|
728 |
"""
|
729 |
Recherche avancée avec reranking en deux étapes
|
|
|
820 |
|
821 |
return final_results
|
822 |
|
823 |
+
@spaces.GPU(duration=60)
|
824 |
def generate_response_stream(self, query: str, context: str, history: List = None):
|
825 |
"""
|
826 |
Génère une réponse streamée basée sur le contexte et l'historique
|
|
|
914 |
except Exception as e:
|
915 |
yield f"❌ Erreur lors de la génération: {str(e)}"
|
916 |
|
917 |
+
@spaces.GPU(duration=60)
|
918 |
def generate_response(self, query: str, context: str, history: List = None) -> str:
|
919 |
"""
|
920 |
Génère une réponse basée sur le contexte et l'historique
|
|
|
999 |
print(f"❌ Erreur lors de la génération: {e}")
|
1000 |
return f"❌ Erreur lors de la génération de la réponse: {str(e)}"
|
1001 |
|
1002 |
+
@spaces.GPU(duration=60) # Durée plus longue car combine search + generation
|
1003 |
def stream_response_with_tools(self, query: str, history, top_k: int = None, use_reranking: bool = None):
|
1004 |
"""
|
1005 |
Génère une réponse streamée avec affichage visuel des tools et reranking Qwen3
|
|
|
1208 |
return result
|
1209 |
|
1210 |
|
1211 |
+
@spaces.GPU(duration=60) # Fonction principale de chat
|
1212 |
def chat_with_generic_rag(message, history, top_k, use_reranking):
|
1213 |
"""
|
1214 |
Interface entre Gradio et le système RAG générique avec contrôles avancés.
|