aino813 commited on
Commit
0f3e1af
·
1 Parent(s): 959374b

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +2 -2
app.py CHANGED
@@ -15,14 +15,14 @@ def getarate_sentences3(seed_sentence):
15
  top_k=50, # Top-Kサンプリング
16
  top_p=0.95, # Top-pサンプリング
17
  temperature=1.2, # 確率分布の調整
18
- num_return_sequences=3, # 生成する文章の数
19
  pad_token_id=tokenizer.pad_token_id, # パディングのトークンID
20
  bos_token_id=tokenizer.bos_token_id, # テキスト先頭のトークンID
21
  eos_token_id=tokenizer.eos_token_id, # テキスト終端のトークンID
22
  bad_word_ids=[[tokenizer.unk_token_id]] # 生成が許可されないトークンID
23
  )
24
  generated_sentences = tokenizer.batch_decode(y, skip_special_tokens=True) # 特殊トークンをスキップして文章に変換
25
- return generated_sentences
26
 
27
  demo = gr.Interface(fn=getarate_sentences3, inputs="text", outputs="text")
28
 
 
15
  top_k=50, # Top-Kサンプリング
16
  top_p=0.95, # Top-pサンプリング
17
  temperature=1.2, # 確率分布の調整
18
+ num_return_sequences=1, # 生成する文章の数
19
  pad_token_id=tokenizer.pad_token_id, # パディングのトークンID
20
  bos_token_id=tokenizer.bos_token_id, # テキスト先頭のトークンID
21
  eos_token_id=tokenizer.eos_token_id, # テキスト終端のトークンID
22
  bad_word_ids=[[tokenizer.unk_token_id]] # 生成が許可されないトークンID
23
  )
24
  generated_sentences = tokenizer.batch_decode(y, skip_special_tokens=True) # 特殊トークンをスキップして文章に変換
25
+ return generated_sentences[0]
26
 
27
  demo = gr.Interface(fn=getarate_sentences3, inputs="text", outputs="text")
28