Model Card for Model TwinDoc/RedWhale-2-3B
meta-llama/Llama-3.2-3B ๋ชจ๋ธ๋ก๋ถํฐ ์ฌ์ ํ์ตํ ๋ชจ๋ธ์ ๋๋ค. ์ฌ์ ํ์ต์ ํ๊ตญ์ด Corpus๋ก ์งํํ์์ต๋๋ค.
Model Details
Model Description
- Developed by: AgileSoda
- Model type: Llama
- Language(s) (NLP): ํ๊ตญ์ด
- License: [More Information Needed]
- Finetuned from model [optional]: TwinDoc/RedWhale-2-3B-Instruct
- Foundation Model: meta-llama/Llama-3.2-3B
Model Sources [optional]
- Repository: [More Information Needed]
- Paper [optional]: [More Information Needed]
- Demo [optional]: [More Information Needed]
Uses
RedWhale-2-3B ๋ชจ๋ธ ์ฌ์ฉ ๋ฐฉ๋ฒ์ meta-llama/Llama-3.2-3B ๋ชจ๋ธ ์ฌ์ฉ ๋ฐฉ๋ฒ๊ณผ ๋์ผํฉ๋๋ค. ์ฌ์ฉํ๊ณ ์ ํ๋ ์๋น ์์ง์ ๊ณต์ ๋ฌธ์๋ฅผ ์ฐธ๊ณ ํ์ธ์. ๋ค์์ ์์์ ๋๋ค.
Direct Use
usage with Transformers ์์ ์ฝ๋๋ transformers == 4.48.1์์ ์์ฑ๋์์ต๋๋ค.
from transformers import AutoModelForCausalLM,AutoTokenizer
import torch
loading_args = {"torch_dtype": torch.bfloat16, "device_map": "auto"} ## for multi gpu loading
model = AutoModelForCausalLM.from_pretrained("TwinDoc/RedWhale-2-3B",**loading_args)
tokenizer = AutoTokenizer.from_pretrained("TwinDoc/RedWhale-2-3B")
text = "๋ํ๋ฏผ๊ตญ์ ์๋๋ "
inputs = tokenizer(text,return_tensors="pt")
outputs = model.generate(**inputs,max_new_tokens = 100)
>>> print(tokenizer.decode(outputs[0]))
"<|begin_of_text|>๋ํ๋ฏผ๊ตญ์ ์๋๋ 4๊ฐ์ ์๋ ์ค์์ ๊ฐ์ฅ ์์ ๋์๋ก ์์ธ์๊ฐ 605.2ใข๋ฅผ ์ฐจ์งํ๋ค. ์์ธ์์ ๋ฉด์ ์ 605.2ใข์ด๋ฉฐ, ๊ทธ ์ค์์ 222.2ใข๊ฐ ์์ธ์ ์ค์ฌ๋ถ์ธ ์ข
๋ก๊ตฌ์ ์ํด ์๋ค. ์์ธ์์ ๋ฉด์ ์ 605.2ใข์ด๋ฉฐ, ๊ทธ ์ค์์ 222.2ใข๊ฐ ์์ธ์ ์ค์ฌ๋ถ์ธ ์ข
๋ก๊ตฌ์ ์ํด ์๋ค. ์์ธ์"
Out-of-Scope Use
์ฌ์ ํ์ต๋ง ์งํํ ๋ชจ๋ธ์ด๊ธฐ ๋๋ฌธ์ Instruction์ ๋ฐ๋ฅด๋ ๋ฅ๋ ฅ์ ์์ต๋๋ค. ํน์ Task์ ๋ฐ๋ก ์ฌ์ฉํ๊ธฐ ๋ณด๋ค๋ Fine-Tuning์ ์ํ Base๋ชจ๋ธ๋ก ์ฌ์ฉํ๋ ๊ฒ์ ๊ถ์ฅํฉ๋๋ค.
Training Details
Training Data
- dataset information
- ์ฌ์ ํ์ต ๋ฐ์ดํฐ์ max length๋ 8192์ ๋๋ค.
- download dataset
Compute Infrastructure
Hardware
- H100 80GB * 1EA
- Downloads last month
- 2
Inference Providers
NEW
This model is not currently available via any of the supported Inference Providers.
Collection including TwinDoc/RedWhale-2-3B
Collection
RedWhale2
โข
4 items
โข
Updated