Model Card for Model ID

AI 와 빅데이터 분석 전문 기업인 Linkbricks의 데이터사이언티스트인 지윤성(Saxo) 이사가
NousResearch/Hermes-3-Llama-3.1-8B 베이스모델을 사용해서 H100-80G 8개를 통해 CPT(Continued Pre Trainig) 한 한글 언어 모델
5천만건의 한글 뉴스 포함 다양한 한글 코퍼스를 기준으로 전체 파라미터중 약 25%를 재 튜닝한 한글 기본 모델로 SFT, DPO 를 통해 용도에 맞게 튜닝하면 됩니다.
-토크나이저는 확장 없이 베이스 모델을 그대로 사용
-128k-Context Window
-한글 Function Call 및 Tool Calling 지원
-Deepspeed Stage=3, rslora 및 BAdam Layer Mode 사용


Dr. Yunsung Ji (Saxo), a data scientist at Linkbricks, a company specializing in AI and big data analytics
Korean language model CPT (Continued Pre Trainig) with 8 H100-80Gs using NousResearch/Hermes-3-Llama-3.1-8B base model
A basic Korean language model with about 25% of the total parameters re-tuned based on various Korean corpus including 50 million Korean news, which need to be customized through SFT and DPO.

-Tokenizer uses the base model without word expansion
-128k-Context Window
-Support for Korean Functioncall and Tool Calling
-Deepspeed Stage=3, use rslora and BAdam Layer Mode


www.linkbricks.com, www.linkbricks.vc

Downloads last month
6
Safetensors
Model size
8.03B params
Tensor type
BF16
·
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and the model is not deployed on the HF Inference API.

Model tree for Saxo/Linkbricks-Horizon-AI-Nous-Hermes-3-Llama3.1-Korean-cpt-8b

Finetuned
(18)
this model
Finetunes
1 model
Merges
2 models
Quantizations
2 models

Datasets used to train Saxo/Linkbricks-Horizon-AI-Nous-Hermes-3-Llama3.1-Korean-cpt-8b