byeolki commited on
Commit
0d5fc71
·
verified ·
1 Parent(s): c7bbb34

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +15 -8
README.md CHANGED
@@ -6,6 +6,7 @@ language:
6
  - ko
7
  base_model:
8
  - unsloth/Meta-Llama-3.1-8B
 
9
  tags:
10
  - korean
11
  - 한국어
@@ -15,15 +16,22 @@ tags:
15
  - 챗봇
16
  ---
17
  # 🤗 Llama-KoEmpathy 💝
 
18
 
19
- Llama-KoEmpathy는 Llama-3.1-8B를 한국어 공감 대화 데이터셋으로 파인튜닝한 언어 모델입니다. 이 모델은 사용자의 감정을 이해하고 공감하는 대화를 생성하는 것을 목표로 합니다. 💭✨
20
 
21
  ## 📋 Model Description
22
 
23
  - 🦙 Base Model: unsloth/Meta-Llama-3.1-8B
24
- - 📚 Dataset: [AI Hub 감성대화 말뭉치](https://www.aihub.or.kr/aihubdata/data/view.do?dataSetSn=71305)
25
  - 🔧 Training Method: LoRA (r=16, alpha=16)
26
 
 
 
 
 
 
 
27
  ## ⚙️ Training Configuration
28
 
29
  - 📏 Max Sequence Length: 2048
@@ -37,20 +45,16 @@ Llama-KoEmpathy는 Llama-3.1-8B를 한국어 공감 대화 데이터셋으로
37
  TIP: 데이터의 크기나 Epoch을 늘리면 좀 더 좋은 결과를 가져올 수 있을거에요!
38
 
39
  ## 💻 Usage
40
-
41
  모델을 사용하는 방법은 다음과 같습니다:
42
-
43
  ```python
44
  from transformers import AutoTokenizer, AutoModelForCausalLM
45
  import torch
46
-
47
  max_length = 512
48
  temperture = 0.7
49
 
50
  model_name = "byeolki/Llama-KoEmpathy"
51
  tokenizer = AutoTokenizer.from_pretrained(model_name)
52
  model = AutoModelForCausalLM.from_pretrained(model_name)
53
-
54
  prompt = """아래는 작업을 설명하는 지시사항입니다. 입력된 내용을 바탕으로 적절한 응답을 작성하세요.
55
  ### 지시사항:
56
  입력에 대해서 공감해주세요.
@@ -72,7 +76,6 @@ outputs = model.generate(
72
  eos_token_id=tokenizer.eos_token_id,
73
  num_return_sequences=1
74
  )
75
-
76
  generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
77
  try:
78
  response = generated_text.split("### 응답:\n")[-1].strip()
@@ -111,4 +114,8 @@ FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
111
  AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
112
  LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
113
  OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
114
- SOFTWARE.
 
 
 
 
 
6
  - ko
7
  base_model:
8
  - unsloth/Meta-Llama-3.1-8B
9
+ - meta-llama/Llama-3.1-8B
10
  tags:
11
  - korean
12
  - 한국어
 
16
  - 챗봇
17
  ---
18
  # 🤗 Llama-KoEmpathy 💝
19
+ *Built with Llama*
20
 
21
+ Llama-KoEmpathy는 Llama-3.1-8B를 AIHub 공감형대화 데이터셋으로 파인튜닝한 언어 모델입니다. 이 모델은 사용자의 감정을 이해하고 공감하는 대화를 생성하는 것을 목표로 합니다. 💭✨
22
 
23
  ## 📋 Model Description
24
 
25
  - 🦙 Base Model: unsloth/Meta-Llama-3.1-8B
26
+ - 📚 Dataset: [AIHub 공감형대화](https://www.aihub.or.kr/aihubdata/data/view.do?dataSetSn=71305)
27
  - 🔧 Training Method: LoRA (r=16, alpha=16)
28
 
29
+ ## ⚠️ Licensing Notice
30
+
31
+ 이 모델은 Llama 3.1 Community License에 따라 제공됩니다. 모델 사용 시 다음 사항을 준수해야 합니다:
32
+ - Meta의 [Acceptable Use Policy](https://llama.meta.com/llama3_1/use-policy)를 따라야 합니다
33
+ - 월간 활성 사용자가 7억명을 초과하는 제품/서비스에 사용할 경우 Meta의 별도 라이선스가 필요합니다
34
+
35
  ## ⚙️ Training Configuration
36
 
37
  - 📏 Max Sequence Length: 2048
 
45
  TIP: 데이터의 크기나 Epoch을 늘리면 좀 더 좋은 결과를 가져올 수 있을거에요!
46
 
47
  ## 💻 Usage
 
48
  모델을 사용하는 방법은 다음과 같습니다:
 
49
  ```python
50
  from transformers import AutoTokenizer, AutoModelForCausalLM
51
  import torch
 
52
  max_length = 512
53
  temperture = 0.7
54
 
55
  model_name = "byeolki/Llama-KoEmpathy"
56
  tokenizer = AutoTokenizer.from_pretrained(model_name)
57
  model = AutoModelForCausalLM.from_pretrained(model_name)
 
58
  prompt = """아래는 작업을 설명하는 지시사항입니다. 입력된 내용을 바탕으로 적절한 응답을 작성하세요.
59
  ### 지시사항:
60
  입력에 대해서 공감해주세요.
 
76
  eos_token_id=tokenizer.eos_token_id,
77
  num_return_sequences=1
78
  )
 
79
  generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
80
  try:
81
  response = generated_text.split("### 응답:\n")[-1].strip()
 
114
  AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
115
  LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
116
  OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
117
+ SOFTWARE.
118
+
119
+ ## 📝 Notice
120
+
121
+ Llama 3.1 is licensed under the Llama 3.1 Community License, Copyright © Meta Platforms, Inc. All Rights Reserved.