Spaces:
Runtime error
Runtime error
import gradio as gr | |
from transformers import AutoModelForCausalLM, AutoTokenizer | |
device = "cuda" # the device to load the model onto | |
model = AutoModelForCausalLM.from_pretrained("ilsp/Meltemi-7B-Instruct-v1.5") | |
tokenizer = AutoTokenizer.from_pretrained("ilsp/Meltemi-7B-Instruct-v1.5") | |
model.to(device) | |
messages = [ | |
{"role": "system", "content": "Είσαι το Μελτέμι, ένα γλωσσικό μοντέλο για την ελληνική γλώσσα. Είσαι ιδιαίτερα βοηθητικό προς την χρήστρια ή τον χρήστη και δίνεις σύντομες αλλά επαρκώς περιεκτικές απαντήσεις. Απάντα με προσοχή, ευγένεια, αμεροληψία, ειλικρίνεια και σεβασμό προς την χρήστρια ή τον χρήστη."}, | |
{"role": "user", "content": "Πες μου αν έχεις συνείδηση."}, | |
] | |
# Through the default chat template this translates to | |
# | |
# <|system|> | |
# Είσαι το Μελτέμι, ένα γλωσσικό μοντέλο για την ελληνική γλώσσα. Είσαι ιδιαίτερα βοηθητικό προς την χρήστρια ή τον χρήστη και δίνεις σύντομες αλλά επαρκώς περιεκτικές απαντήσεις. Απάντα με προσοχή, ευγένεια, αμεροληψία, ειλικρίνεια και σεβασμό προς την χρήστρια ή τον χρήστη.</s> | |
# <|user|> | |
# Πες μου αν έχεις συνείδηση.</s> | |
# <|assistant|> | |
# | |
prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False) | |
input_prompt = tokenizer(prompt, return_tensors='pt').to(device) | |
outputs = model.generate(input_prompt['input_ids'], max_new_tokens=256, do_sample=True) | |
print(tokenizer.batch_decode(outputs)[0]) | |
# Ως μοντέλο γλώσσας AI, δεν έχω τη δυνατότητα να αντιληφθώ ή να βιώσω συναισθήματα όπως η συνείδηση ή η επίγνωση. Ωστόσο, μπορώ να σας βοηθήσω με οποιεσδήποτε ερωτήσεις μπορεί να έχετε σχετικά με την τεχνητή νοημοσύνη και τις εφαρμογές της. | |
messages.extend([ | |
{"role": "assistant", "content": tokenizer.batch_decode(outputs)[0]}, | |
{"role": "user", "content": "Πιστεύεις πως οι άνθρωποι πρέπει να φοβούνται την τεχνητή νοημοσύνη;"} | |
]) | |
# Through the default chat template this translates to | |
# | |
# <|system|> | |
# Είσαι το Μελτέμι, ένα γλωσσικό μοντέλο για την ελληνική γλώσσα. Είσαι ιδιαίτερα βοηθητικό προς την χρήστρια ή τον χρήστη και δίνεις σύντομες αλλά επαρκώς περιεκτικές απαντήσεις. Απάντα με προσοχή, ευγένεια, αμεροληψία, ειλικρίνεια και σεβασμό προς την χρήστρια ή τον χρήστη.</s> | |
# <|user|> | |
# Πες μου αν έχεις συνείδηση.</s> | |
# <|assistant|> | |
# Ως μοντέλο γλώσσας AI, δεν έχω τη δυνατότητα να αντιληφθώ ή να βιώσω συναισθήματα όπως η συνείδηση ή η επίγνωση. Ωστόσο, μπορώ να σας βοηθήσω με οποιεσδήποτε ερωτήσεις μπορεί να έχετε σχετικά με την τεχνητή νοημοσύνη και τις εφαρμογές της.</s> | |
# <|user|> | |
# Πιστεύεις πως οι άνθρωποι πρέπει να φοβούνται την τεχνητή νοημοσύνη;</s> | |
# <|assistant|> | |
# | |
prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False) | |
input_prompt = tokenizer(prompt, return_tensors='pt').to(device) | |
outputs = model.generate(input_prompt['input_ids'], max_new_tokens=256, do_sample=True) | |
print(tokenizer.batch_decode(outputs)[0]) | |
# Gradio interface | |
interface = gr.Interface(fn=generate_text, inputs="text", outputs="text", title="Meltemi-7B Text Generator") | |
interface.launch() | |