--- license: llama2 datasets: - ju-resplande/rebel-pt - paulofinardi/OIG_small_chip2_portuguese_brasil - Guilherme34/Cabrita-lora-ptbr - dominguesm/Canarim-Instruct-PTBR-Dataset language: - pt - en pipeline_tag: text-generation library_name: transformers widget: - text: | Quem foi Pedro Álvares Cabral? tags: - Portuguese - Llama - Tiny-Llama - LLM - PEFT ---
# PT - README

Samba Logo

Samba é um LLM treinado em dados da língua portuguesa. O modelo é baseado no [TinyLlama-1.1B](https://huggingface.co/TinyLlama/TinyLlama-1.1B-Chat-v1.0), uma versão de 1.1B parâmetros do LLaMA-2. O projeto do LLM Samba tem como objetivo fornecer mais opções de LLMs para língua portuguesa, ao mesmo tempo que disponibiliza um modelo menos complexo para que, dessa forma, usuários com menos poder computacional possam usufruir das LLMs.

Countries Logo

### Descrição do Modelo - **Desenvolvido por:** [Leonardo Souza](https://huggingface.co/lrds-code) - **Tipo do Modelo:** LLaMA-Based - **Licença:** Academic Free License v3.0 - **Fine-tunado do modelo:** [TinyLlama-1.1B](https://huggingface.co/TinyLlama/TinyLlama-1.1B-Chat-v1.0) ## Como usar ```python import torch from transformers import pipeline samba = pipeline('text-generation', model='lrds-code/samba-1.1B', torch_dtype=torch.bfloat16, device_map='auto') messages = [{"role": "system", "content": ""}, {"role": "user", "content": "Quantos planetas existem no sistema solar?"}] prompt = samba.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) outputs = samba(prompt, max_new_tokens=256, do_sample=False, temperature=0.1, top_k=50, top_p=0.95) print(outputs[0]['generated_text']) ```
# EN - README
# Samba-1.1B

Samba Logo

Samba is a LLM trained on portuguese language data. The model is based on [TinyLlama-1.1B](https://huggingface.co/TinyLlama/TinyLlama-1.1B-Chat-v1.0), a 1.1B parameter version of LLaMA-2. The LLM Samba project aims to provide more LLM options in Portuguese, while also providing less complex models so that users with less computational power can take advantage of the LLMs.

Countries Logo

### Model Description - **Developed by:** [Leonardo Souza](https://huggingface.co/lrds-code) - **Model type:** LLaMA-Based - **License:** Academic Free License v3.0 - **Finetuned from model:** [TinyLlama-1.1B](https://huggingface.co/TinyLlama/TinyLlama-1.1B-Chat-v1.0) ## How to Use ```python import torch from transformers import pipeline samba = pipeline('text-generation', model='lrds-code/samba-1.1B', torch_dtype=torch.bfloat16, device_map='auto') messages = [{"role": "system", "content": ""}, {"role": "user", "content": "Quantos planetas existem no sistema solar?"}] prompt = samba.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) outputs = samba(prompt, max_new_tokens=256, do_sample=False, temperature=0.1, top_k=50, top_p=0.95) print(outputs[0]['generated_text']) ```