|
--- |
|
tags: |
|
- merge |
|
- mergekit |
|
- lazymergekit |
|
- sh2orc |
|
- bccard |
|
|
|
base_model: |
|
- sh2orc/Llama-3-Korean-8B |
|
--- |
|
|
|
# Llama-3-Korean-12B |
|
|
|
Llama-3-Korean-12B is a merge of the following models using LazyMergekit: |
|
* [sh2orc/Llama-3-Korean-8B](sh2orc/Llama-3-Korean-8B) |
|
|
|
- Dataset: |
|
- [maywell/ko_wikidata_QA](https://huggingface.co/datasets/maywell/ko_wikidata_QA) |
|
- [lcw99/wikipedia-korean-20240501-1million-qna](https://huggingface.co/datasets/lcw99/wikipedia-korean-20240501-1million-qna) |
|
- [inswave/AISquare_Koalpaca_Orca_merged](https://huggingface.co/datasets/inswave/AISquare_Koalpaca_Orca_merged) |
|
- [inswave/AISqaure_Intergrated_v1](https://huggingface.co/datasets/inswave/AISqaure_Intergrated_v1) |
|
|
|
## π» Usage |
|
|
|
```python |
|
!pip install -qU transformers accelerate |
|
|
|
from transformers import AutoTokenizer |
|
import transformers |
|
import torch |
|
|
|
model = "sh2orc/Llama-3-Korean-12B" |
|
messages = [{"role": "user", "content": "What is a large language model?"}] |
|
|
|
tokenizer = AutoTokenizer.from_pretrained(model) |
|
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) |
|
pipeline = transformers.pipeline( |
|
"text-generation", |
|
model=model, |
|
torch_dtype=torch.float16, |
|
device_map="auto", |
|
) |
|
|
|
outputs = pipeline(prompt, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95) |
|
print(outputs[0]["generated_text"]) |
|
``` |
|
|
|
## Q&A |
|
|
|
**Q. 2μ°¨ μΈκ³λμ μ λν΄μ μλ €μ€** <br> |
|
A. 2μ°¨ μΈκ³λμ μ 1939λ
λΆν° 1945λ
κΉμ§ λ²μ΄μ§ λκ·λͺ¨ μ μμΌλ‘, μ λ½κ³Ό μμμμμ μ¬λ¬ λλΌλ€μ΄ μ°Έμ¬νμ΅λλ€. μ΄ μ μμ μ 1μ°¨ μΈκ³λμ μ μμμΌλ‘ ν 20μΈκΈ° μ΅μ
μ μ μ μ€ νλμμ΅λλ€. μ μμ λ
μΌκ³Ό μ΄ν리μκ° ν΄λλλ₯Ό 침곡νλ©΄μ μμλμκ³ , μ΄ν μλ ¨μ΄ λ
μΌμ λ§μκΈ° μν΄ μ°Έμ νλ©΄μ μ λ½ μ μ μ΄ νμ±λμμ΅λλ€. μ μμ 1941λ
6μ 22μΌ λ
μΌμ΄ μλ ¨μ 침곡νλ©΄μ μμλμκ³ , 1945λ
5μ 8μΌ λ
μΌμ΄ μ°ν©κ΅°μ ν볡νλ©΄μ μ’
λ£λμμ΅λλ€. μ μμ 1945λ
8μ 15μΌ μΌλ³Έ μ κ΅μ΄ μ°ν©κ΅°μ ν볡νλ©΄μ μ’
κ²°λμμ΅λλ€. μ΄ μ μμ 2μ°¨ μΈκ³λμ μΌλ‘ μλ €μ Έ μμΌλ©°, 2μ°¨ μΈκ³λμ μΌλ‘ μλ €μ Έ μμ΅λλ€. |
|
|
|
**Q. λμ΄κ° λ€λ©΄ 무μμ λ¨Όμ κ³ λ―Όν΄μΌν΄?** <br> |
|
A. λμ΄κ° λ€λ©΄ μ¬λ¬ κ°μ§ λ¬Έμ κ° λ°μν μ μμ§λ§, κ°μ₯ μ€μν κ²μ 건κ°μ μ μ§νλ κ²μ
λλ€. λ°λΌμ μ΄λκ³Ό κ· ν μ‘ν μμ΅κ΄μ μ μ§νλ κ²μ΄ μ€μν©λλ€. λν, μ μ λλ μ μμ μλνμ§λ§ λμ΄κ° λ€λ©΄ μΉκ΅¬μ κ°μ‘±κ³Όμ κ΄κ³κ° λ μ€μν΄μ§λλ€. μ΄λ¬ν μ΄μ λ‘, λμ΄κ° λ€λ©΄μλ 건κ°ν μΆμ μ μ§νκ³ , μμ€ν μ¬λλ€κ³Ό ν¨κ» μκ°μ 보λ΄λ κ²μ΄ μ’μ΅λλ€. |
|
|
|
|