albhu commited on
Commit
56ec0dc
·
verified ·
1 Parent(s): f7cc300

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +36 -20
app.py CHANGED
@@ -25,6 +25,9 @@ document_text = st.text_area("Jogi Dokumentum", "")
25
  # Dokumentum típusának megadása
26
  document_type = st.text_input("Dokumentum Típusa", "")
27
 
 
 
 
28
  # Generálási paraméterek testreszabása
29
  max_length = st.slider("Maximális Válasz Hossz", min_value=10, max_value=200, value=50, step=10)
30
  num_return_sequences = st.slider("Válaszok Száma", min_value=1, max_value=5, value=3, step=1)
@@ -38,29 +41,42 @@ if st.button("Tokenizálás és Válaszgenerálás"):
38
  file.write(str(tokenized_document))
39
  st.write("A tokenizált dokumentum sikeresen el lett mentve.")
40
 
 
 
 
 
 
 
 
 
41
  # Válasz generálása
42
- input_ids = tokenized_document["input_ids"]
43
- output = model.generate(input_ids, max_length=max_length, num_return_sequences=num_return_sequences, temperature=temperature)
44
- st.subheader("Generált Válaszok:")
45
- for i, generated_sequence in enumerate(output):
46
- response_text = tokenizer.decode(generated_sequence, skip_special_tokens=True)
47
- st.write(f"Válasz {i+1}: {response_text}")
48
- if hasattr(model, "get_output_embeddings"):
49
- logits = model.get_output_embeddings()(generated_sequence)
50
- probs = logits.softmax(dim=-1)
51
- st.write("Valószínűségek:")
52
- st.table(probs.tolist())
53
- if st.button(f"Mentés Válasz {i+1}"):
54
- file_name = st.text_input("Fájlnév:", f"generated_response_{i+1}.txt")
55
- with open(file_name, "w", encoding="utf-8") as file:
56
- file.write(response_text)
57
- st.write(f"A válasz {i+1} sikeresen el lett mentve fájlba.")
 
58
 
59
  # Generált válaszok egyetlen fájlba mentése
60
  if st.button("Mentés Összes Válasz"):
61
  with open("all_generated_responses.txt", "w", encoding="utf-8") as file:
62
- for i, generated_sequence in enumerate(output):
63
- generated_text = tokenizer.decode(generated_sequence, skip_special_tokens=True)
64
- file.write(f"Válasz {i+1}:\n")
65
- file.write(generated_text + "\n\n")
 
 
 
 
66
  st.write("Az összes válasz sikeresen el lett mentve egy fájlba.")
 
25
  # Dokumentum típusának megadása
26
  document_type = st.text_input("Dokumentum Típusa", "")
27
 
28
+ # Szövegszegmentáció
29
+ segmentation_type = st.selectbox("Szövegszegmentáció", ["Címek", "Bekezdések", "Fejezetek"])
30
+
31
  # Generálási paraméterek testreszabása
32
  max_length = st.slider("Maximális Válasz Hossz", min_value=10, max_value=200, value=50, step=10)
33
  num_return_sequences = st.slider("Válaszok Száma", min_value=1, max_value=5, value=3, step=1)
 
41
  file.write(str(tokenized_document))
42
  st.write("A tokenizált dokumentum sikeresen el lett mentve.")
43
 
44
+ # Szövegszegmentáció
45
+ if segmentation_type == "Címek":
46
+ segments = extract_titles(document_text)
47
+ elif segmentation_type == "Bekezdések":
48
+ segments = extract_paragraphs(document_text)
49
+ elif segmentation_type == "Fejezetek":
50
+ segments = extract_chapters(document_text)
51
+
52
  # Válasz generálása
53
+ for segment in segments:
54
+ input_ids = tokenizer.encode(segment, return_tensors="pt")
55
+ output = model.generate(input_ids, max_length=max_length, num_return_sequences=num_return_sequences, temperature=temperature)
56
+ st.subheader(f"{segment} - Generált Válaszok:")
57
+ for i, generated_sequence in enumerate(output):
58
+ response_text = tokenizer.decode(generated_sequence, skip_special_tokens=True)
59
+ st.write(f"Válasz {i+1}: {response_text}")
60
+ if hasattr(model, "get_output_embeddings"):
61
+ logits = model.get_output_embeddings()(generated_sequence)
62
+ probs = logits.softmax(dim=-1)
63
+ st.write("Valószínűségek:")
64
+ st.table(probs.tolist())
65
+ if st.button(f"Mentés Válasz {i+1}"):
66
+ file_name = st.text_input("Fájlnév:", f"generated_response_{i+1}.txt")
67
+ with open(file_name, "w", encoding="utf-8") as file:
68
+ file.write(response_text)
69
+ st.write(f"A válasz {i+1} sikeresen el lett mentve fájlba.")
70
 
71
  # Generált válaszok egyetlen fájlba mentése
72
  if st.button("Mentés Összes Válasz"):
73
  with open("all_generated_responses.txt", "w", encoding="utf-8") as file:
74
+ for segment in segments:
75
+ input_ids = tokenizer.encode(segment, return_tensors="pt")
76
+ output = model.generate(input_ids, max_length=max_length, num_return_sequences=num_return_sequences, temperature=temperature)
77
+ file.write(f"{segment}:\n")
78
+ for i, generated_sequence in enumerate(output):
79
+ generated_text = tokenizer.decode(generated_sequence, skip_special_tokens=True)
80
+ file.write(f"Válasz {i+1}:\n")
81
+ file.write(generated_text + "\n\n")
82
  st.write("Az összes válasz sikeresen el lett mentve egy fájlba.")