Update app.py
Browse files
app.py
CHANGED
@@ -15,14 +15,14 @@ def getarate_sentences3(seed_sentence):
|
|
15 |
top_k=50, # Top-Kサンプリング
|
16 |
top_p=0.95, # Top-pサンプリング
|
17 |
temperature=1.2, # 確率分布の調整
|
18 |
-
num_return_sequences=
|
19 |
pad_token_id=tokenizer.pad_token_id, # パディングのトークンID
|
20 |
bos_token_id=tokenizer.bos_token_id, # テキスト先頭のトークンID
|
21 |
eos_token_id=tokenizer.eos_token_id, # テキスト終端のトークンID
|
22 |
bad_word_ids=[[tokenizer.unk_token_id]] # 生成が許可されないトークンID
|
23 |
)
|
24 |
generated_sentences = tokenizer.batch_decode(y, skip_special_tokens=True) # 特殊トークンをスキップして文章に変換
|
25 |
-
return generated_sentences
|
26 |
|
27 |
demo = gr.Interface(fn=getarate_sentences3, inputs="text", outputs="text")
|
28 |
|
|
|
15 |
top_k=50, # Top-Kサンプリング
|
16 |
top_p=0.95, # Top-pサンプリング
|
17 |
temperature=1.2, # 確率分布の調整
|
18 |
+
num_return_sequences=1, # 生成する文章の数
|
19 |
pad_token_id=tokenizer.pad_token_id, # パディングのトークンID
|
20 |
bos_token_id=tokenizer.bos_token_id, # テキスト先頭のトークンID
|
21 |
eos_token_id=tokenizer.eos_token_id, # テキスト終端のトークンID
|
22 |
bad_word_ids=[[tokenizer.unk_token_id]] # 生成が許可されないトークンID
|
23 |
)
|
24 |
generated_sentences = tokenizer.batch_decode(y, skip_special_tokens=True) # 特殊トークンをスキップして文章に変換
|
25 |
+
return generated_sentences[0]
|
26 |
|
27 |
demo = gr.Interface(fn=getarate_sentences3, inputs="text", outputs="text")
|
28 |
|