samba-1.1B / README.md
lrds-code's picture
Update README.md
1befb9a verified
|
raw
history blame
3.69 kB
metadata
license: llama2
datasets:
  - ju-resplande/rebel-pt
  - paulofinardi/OIG_small_chip2_portuguese_brasil
  - Guilherme34/Cabrita-lora-ptbr
  - dominguesm/Canarim-Instruct-PTBR-Dataset
language:
  - pt
  - en
pipeline_tag: text-generation
library_name: transformers
widget:
  - text: |
      Quem foi Pedro Álvares Cabral?
tags:
  - Portuguese
  - Llama
  - Tiny-Llama
  - LLM
  - PEFT

PT - README


Samba Logo

Samba é um LLM treinado em dados da língua portuguesa. O modelo é baseado no TinyLlama-1.1B, uma versão de 1.1B parâmetros do LLaMA-2.

O projeto do LLM Samba tem como objetivo fornecer mais opções de LLMs para língua portuguesa, ao mesmo tempo que disponibiliza um modelo menos complexo para que, dessa forma, usuários com menos poder computacional possam usufruir das LLMs.

Countries Logo

Descrição do Modelo

Como usar

import torch
from transformers import pipeline

samba = pipeline('text-generation', model='lrds-code/samba-1.1B', torch_dtype=torch.bfloat16, device_map='auto')

messages = [{"role": "system",
             "content": ""},
            {"role": "user",
             "content": "Quantos planetas existem no sistema solar?"}]

prompt = samba.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
outputs = samba(prompt, max_new_tokens=256, do_sample=False, temperature=0.1, top_k=50, top_p=0.95)
print(outputs[0]['generated_text'])

EN - README


Samba-1.1B

Samba Logo

Samba is a LLM trained on portuguese language data. The model is based on TinyLlama-1.1B, a 1.1B parameter version of LLaMA-2.

The LLM Samba project aims to provide more LLM options in Portuguese, while also providing less complex models so that users with less computational power can take advantage of the LLMs.

Countries Logo

Model Description

How to Use

import torch
from transformers import pipeline

samba = pipeline('text-generation', model='lrds-code/samba-1.1B', torch_dtype=torch.bfloat16, device_map='auto')

messages = [{"role": "system",
             "content": ""},
            {"role": "user",
             "content": "Quantos planetas existem no sistema solar?"}]

prompt = samba.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
outputs = samba(prompt, max_new_tokens=256, do_sample=False, temperature=0.1, top_k=50, top_p=0.95)
print(outputs[0]['generated_text'])