Model Card for Model TwinDoc/RedWhale-2-12B
Llama3.1 8B๋ฅผ TLIํ์ฌ 12B ๋ชจ๋ธ๋ก ๋ง๋ ํ ์ฌ์ ํ์ตํ ๋ชจ๋ธ์
๋๋ค. ์ฌ์ ํ์ต์ ํ๊ตญ์ด Corpus๋ก ์งํํ์์ต๋๋ค.
TLI๋ transformer์ layer๋ฅผ ๋ณต์ ํ๋ ๋ชจ๋ธ up-scale ๋ฐฉ๋ฒ๋ก ์
๋๋ค.
Model Details
Model Description
- Developed by: AgileSoda
- Model type: Llama
- Language(s) (NLP): ํ๊ตญ์ด
- License: [More Information Needed]
- Finetuned from model [optional]: TwinDoc/RedWhale-2-12B-Instruct
- Foundation Model: RedWhale-2-12B-TLI
Model Sources [optional]
- Repository: [More Information Needed]
- Paper [optional]: [More Information Needed]
- Demo [optional]: [More Information Needed]
Uses
RedWhale-2-12B ๋ชจ๋ธ ์ฌ์ฉ ๋ฐฉ๋ฒ์ meta-llama/Llama-3.1-8B ๋ชจ๋ธ ์ฌ์ฉ ๋ฐฉ๋ฒ๊ณผ ๋์ผํฉ๋๋ค. ์ฌ์ฉํ๊ณ ์ ํ๋ ์๋น ์์ง์ ๊ณต์ ๋ฌธ์๋ฅผ ์ฐธ๊ณ ํ์ธ์. ๋ค์์ ์์์ ๋๋ค.
Direct Use
usage with Transformers ์์ ์ฝ๋๋ transformers == 4.48.1์์ ์์ฑ๋์์ต๋๋ค.
from transformers import AutoModelForCausalLM,AutoTokenizer
import torch
loading_args = {"torch_dtype": torch.bfloat16, "device_map": "auto"} ## for multi gpu loading
model = AutoModelForCausalLM.from_pretrained("TwinDoc/RedWhale-2-12B",**loading_args)
tokenizer = AutoTokenizer.from_pretrained("TwinDoc/RedWhale-2-12B")
text = "๋ํ๋ฏผ๊ตญ์ ์๋๋ "
inputs = tokenizer(text,return_tensors="pt")
outputs = model.generate(**inputs,max_new_tokens = 100)
>>> print(tokenizer.decode(outputs[0]))
"<|begin_of_text|>๋ํ๋ฏผ๊ตญ์ ์๋๋ 1000๋ง์ฌ ๋ช
์ด์์ด ๊ฑฐ์ฃผํ๊ณ ์๋ ์์ธ๋ก ๋ํ๋๋ ๋์ฌ์ง์ด๋ค. ๋ณธ ์ฐ๊ตฌ์์๋ ์์ธ์ ์ค์ฌ์ ๋ํ๋ด๋ 4๋๋ฌธ ์์ ๋์ฌ์ง๋ก ์ ์ํ๊ณ , ๊ทธ ๊ฒฝ๊ณ๋ฅผ ๋ถ์
์ฐ, ์ธ์์ฐ, ๋จ์ฐ, ๋์ฐ์ผ๋ก ๊ตฌ๋ถํ๋ 4์ฐ์ ์ฐ์ค๊ธฐ์ ๋๋ก๋ก ๊ตฌ์ฑ๋๋ 8๊ฐ์ ๋ณ์ ๊ฒฝ๊ณ๋ก ์ ํ๋ค. ๊ตญํ ๊ณต๊ฐ์ ๊ด์ ์์ ์ฐ๋ฆฌ๋๋ผ์"
Out-of-Scope Use
์ฌ์ ํ์ต๋ง ์งํํ ๋ชจ๋ธ์ด๊ธฐ ๋๋ฌธ์ Instruction์ ๋ฐ๋ฅด๋ ๋ฅ๋ ฅ์ ์์ต๋๋ค. ํน์ Task์ ๋ฐ๋ก ์ฌ์ฉํ๊ธฐ ๋ณด๋ค๋ Fine-Tuning์ ์ํ Base๋ชจ๋ธ๋ก ์ฌ์ฉํ๋ ๊ฒ์ ๊ถ์ฅํฉ๋๋ค.
Training Details
Training Data
- dataset information
- ์ฌ์ ํ์ต ๋ฐ์ดํฐ์ max length๋ 8192์ ๋๋ค.
- download dataset
Training Procedure
Compute Infrastructure
Hardware
- L40 48GB * 4EA
- Downloads last month
- 2
Inference Providers
NEW
This model is not currently available via any of the supported Inference Providers.
Collection including TwinDoc/RedWhale-2-12B
Collection
RedWhale2
โข
4 items
โข
Updated