Update app.py
Browse files
app.py
CHANGED
@@ -2,6 +2,7 @@ import streamlit as st
|
|
2 |
import pdfplumber
|
3 |
import docx
|
4 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
|
|
5 |
|
6 |
st.title("JAI")
|
7 |
|
@@ -83,3 +84,19 @@ if document_file is not None:
|
|
83 |
|
84 |
# Aktuális beszélgetés hozzáadása az előző beszélgetésekhez
|
85 |
st.session_state.previous_conversations.append({"input_text": input_text, "response": response})
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
import pdfplumber
|
3 |
import docx
|
4 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
5 |
+
import faiss
|
6 |
|
7 |
st.title("JAI")
|
8 |
|
|
|
84 |
|
85 |
# Aktuális beszélgetés hozzáadása az előző beszélgetésekhez
|
86 |
st.session_state.previous_conversations.append({"input_text": input_text, "response": response})
|
87 |
+
|
88 |
+
# FAISS használata az előző beszélgetések indexelésére és keresésére
|
89 |
+
# Először hozz létre egy üres FAISS indexet
|
90 |
+
index = faiss.IndexFlatL2(embedding_dimension) # Az embedding_dimension a vektormérete az előző beszélgetések reprezentálásához
|
91 |
+
|
92 |
+
# Az előző beszélgetéseket reprezentáló vektorokat hozzáadhatod az indexhez
|
93 |
+
for conversation_vector in previous_conversation_vectors:
|
94 |
+
index.add(conversation_vector)
|
95 |
+
|
96 |
+
# Keresés egy adott lekérdezés vektor alapján
|
97 |
+
query_vector = generate_vector_from_text(input_text) # A lekérdezés szövegből létrehozott vektor
|
98 |
+
k = 5 # A legjobb 5 hasonlóságú beszélgetés visszaadása
|
99 |
+
D, I = index.search(query_vector, k) # D: távolságok, I: indexek
|
100 |
+
|
101 |
+
# Azon beszélgetések visszaadása, amelyek a legjobban illeszkednek a lekérdezéshez
|
102 |
+
relevant_conversations = [st.session_state.previous_conversations[i] for i in I]
|