Update README.md
Browse files
README.md
CHANGED
@@ -6,6 +6,7 @@ language:
|
|
6 |
- ko
|
7 |
base_model:
|
8 |
- unsloth/Meta-Llama-3.1-8B
|
|
|
9 |
tags:
|
10 |
- korean
|
11 |
- 한국어
|
@@ -15,15 +16,22 @@ tags:
|
|
15 |
- 챗봇
|
16 |
---
|
17 |
# 🤗 Llama-KoEmpathy 💝
|
|
|
18 |
|
19 |
-
Llama-KoEmpathy는 Llama-3.1-8B를
|
20 |
|
21 |
## 📋 Model Description
|
22 |
|
23 |
- 🦙 Base Model: unsloth/Meta-Llama-3.1-8B
|
24 |
-
- 📚 Dataset: [
|
25 |
- 🔧 Training Method: LoRA (r=16, alpha=16)
|
26 |
|
|
|
|
|
|
|
|
|
|
|
|
|
27 |
## ⚙️ Training Configuration
|
28 |
|
29 |
- 📏 Max Sequence Length: 2048
|
@@ -37,20 +45,16 @@ Llama-KoEmpathy는 Llama-3.1-8B를 한국어 공감 대화 데이터셋으로
|
|
37 |
TIP: 데이터의 크기나 Epoch을 늘리면 좀 더 좋은 결과를 가져올 수 있을거에요!
|
38 |
|
39 |
## 💻 Usage
|
40 |
-
|
41 |
모델을 사용하는 방법은 다음과 같습니다:
|
42 |
-
|
43 |
```python
|
44 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
45 |
import torch
|
46 |
-
|
47 |
max_length = 512
|
48 |
temperture = 0.7
|
49 |
|
50 |
model_name = "byeolki/Llama-KoEmpathy"
|
51 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
52 |
model = AutoModelForCausalLM.from_pretrained(model_name)
|
53 |
-
|
54 |
prompt = """아래는 작업을 설명하는 지시사항입니다. 입력된 내용을 바탕으로 적절한 응답을 작성하세요.
|
55 |
### 지시사항:
|
56 |
입력에 대해서 공감해주세요.
|
@@ -72,7 +76,6 @@ outputs = model.generate(
|
|
72 |
eos_token_id=tokenizer.eos_token_id,
|
73 |
num_return_sequences=1
|
74 |
)
|
75 |
-
|
76 |
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
|
77 |
try:
|
78 |
response = generated_text.split("### 응답:\n")[-1].strip()
|
@@ -111,4 +114,8 @@ FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
|
|
111 |
AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
|
112 |
LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
|
113 |
OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
|
114 |
-
SOFTWARE.
|
|
|
|
|
|
|
|
|
|
6 |
- ko
|
7 |
base_model:
|
8 |
- unsloth/Meta-Llama-3.1-8B
|
9 |
+
- meta-llama/Llama-3.1-8B
|
10 |
tags:
|
11 |
- korean
|
12 |
- 한국어
|
|
|
16 |
- 챗봇
|
17 |
---
|
18 |
# 🤗 Llama-KoEmpathy 💝
|
19 |
+
*Built with Llama*
|
20 |
|
21 |
+
Llama-KoEmpathy는 Llama-3.1-8B를 AIHub 공감형대화 데이터셋으로 파인튜닝한 언어 모델입니다. 이 모델은 사용자의 감정을 이해하고 공감하는 대화를 생성하는 것을 목표로 합니다. 💭✨
|
22 |
|
23 |
## 📋 Model Description
|
24 |
|
25 |
- 🦙 Base Model: unsloth/Meta-Llama-3.1-8B
|
26 |
+
- 📚 Dataset: [AIHub 공감형대화](https://www.aihub.or.kr/aihubdata/data/view.do?dataSetSn=71305)
|
27 |
- 🔧 Training Method: LoRA (r=16, alpha=16)
|
28 |
|
29 |
+
## ⚠️ Licensing Notice
|
30 |
+
|
31 |
+
이 모델은 Llama 3.1 Community License에 따라 제공됩니다. 모델 사용 시 다음 사항을 준수해야 합니다:
|
32 |
+
- Meta의 [Acceptable Use Policy](https://llama.meta.com/llama3_1/use-policy)를 따라야 합니다
|
33 |
+
- 월간 활성 사용자가 7억명을 초과하는 제품/서비스에 사용할 경우 Meta의 별도 라이선스가 필요합니다
|
34 |
+
|
35 |
## ⚙️ Training Configuration
|
36 |
|
37 |
- 📏 Max Sequence Length: 2048
|
|
|
45 |
TIP: 데이터의 크기나 Epoch을 늘리면 좀 더 좋은 결과를 가져올 수 있을거에요!
|
46 |
|
47 |
## 💻 Usage
|
|
|
48 |
모델을 사용하는 방법은 다음과 같습니다:
|
|
|
49 |
```python
|
50 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
51 |
import torch
|
|
|
52 |
max_length = 512
|
53 |
temperture = 0.7
|
54 |
|
55 |
model_name = "byeolki/Llama-KoEmpathy"
|
56 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
57 |
model = AutoModelForCausalLM.from_pretrained(model_name)
|
|
|
58 |
prompt = """아래는 작업을 설명하는 지시사항입니다. 입력된 내용을 바탕으로 적절한 응답을 작성하세요.
|
59 |
### 지시사항:
|
60 |
입력에 대해서 공감해주세요.
|
|
|
76 |
eos_token_id=tokenizer.eos_token_id,
|
77 |
num_return_sequences=1
|
78 |
)
|
|
|
79 |
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
|
80 |
try:
|
81 |
response = generated_text.split("### 응답:\n")[-1].strip()
|
|
|
114 |
AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
|
115 |
LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
|
116 |
OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
|
117 |
+
SOFTWARE.
|
118 |
+
|
119 |
+
## 📝 Notice
|
120 |
+
|
121 |
+
Llama 3.1 is licensed under the Llama 3.1 Community License, Copyright © Meta Platforms, Inc. All Rights Reserved.
|