metadata
license: llama2
datasets:
- ju-resplande/rebel-pt
- paulofinardi/OIG_small_chip2_portuguese_brasil
- Guilherme34/Cabrita-lora-ptbr
- dominguesm/Canarim-Instruct-PTBR-Dataset
language:
- pt
- en
pipeline_tag: text-generation
library_name: transformers
widget:
- text: |
Quem foi Pedro Álvares Cabral?
tags:
- Portuguese
- Llama
- Tiny-Llama
- LLM
- PEFT
PT - README
Samba é um LLM treinado em dados da língua portuguesa. O modelo é baseado no TinyLlama-1.1B, uma versão de 1.1B parâmetros do LLaMA-2.
O projeto do LLM Samba tem como objetivo fornecer mais opções de LLMs para língua portuguesa, ao mesmo tempo que disponibiliza um modelo menos complexo para que, dessa forma, usuários com menos poder computacional possam usufruir das LLMs.
Descrição do Modelo
- Desenvolvido por: Leonardo Souza
- Tipo do Modelo: LLaMA-Based
- Licença: Academic Free License v3.0
- Fine-tunado do modelo: TinyLlama-1.1B
Como usar
import torch
from transformers import pipeline
samba = pipeline('text-generation', model='lrds-code/samba-1.1B', torch_dtype=torch.bfloat16, device_map='auto')
messages = [{"role": "system",
"content": ""},
{"role": "user",
"content": "Quantos planetas existem no sistema solar?"}]
prompt = samba.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
outputs = samba(prompt, max_new_tokens=256, do_sample=False, temperature=0.1, top_k=50, top_p=0.95)
print(outputs[0]['generated_text'])
EN - README
Samba-1.1B
Samba is a LLM trained on portuguese language data. The model is based on TinyLlama-1.1B, a 1.1B parameter version of LLaMA-2.
The LLM Samba project aims to provide more LLM options in Portuguese, while also providing less complex models so that users with less computational power can take advantage of the LLMs.
Model Description
- Developed by: Leonardo Souza
- Model type: LLaMA-Based
- License: Academic Free License v3.0
- Finetuned from model: TinyLlama-1.1B
How to Use
import torch
from transformers import pipeline
samba = pipeline('text-generation', model='lrds-code/samba-1.1B', torch_dtype=torch.bfloat16, device_map='auto')
messages = [{"role": "system",
"content": ""},
{"role": "user",
"content": "Quantos planetas existem no sistema solar?"}]
prompt = samba.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
outputs = samba(prompt, max_new_tokens=256, do_sample=False, temperature=0.1, top_k=50, top_p=0.95)
print(outputs[0]['generated_text'])