fage / README.md
fage13141's picture
Update README.md
e65d686 verified
metadata
language:
  - zh
  - en
tags:
  - deepseek
  - lora
  - chinese
  - roleplay
  - chat
license: apache-2.0
datasets:
  - fage13141/zhenhuanti
base_model: deepseek-ai/deepseek-llm-7b-chat
model-index:
  - name: DeepSeek-7B-Chat-LoRA-ZhenHuanTi
    results: []

DeepSeek-7B-Chat LoRA 微调模型

这是一个基于 DeepSeek-7B-Chat 使用 LoRA 技术微调甄嬛体的模型。

模型信息

  • 基础模型: deepseek-ai/deepseek-llm-7b-chat
  • 训练方法: LoRA
  • 检查点: checkpoint-600
  • 上传时间: 2025-02-26 02:37:02

环境要求

Python 版本

  • Python 3.8 或更高版本

必需依赖

pip install torch>=2.0.0
pip install transformers>=4.35.2
pip install peft>=0.7.0
pip install accelerate>=0.25.0
pip install safetensors>=0.4.1

GPU 要求

  • NVIDIA GPU with CUDA support
  • 至少 16GB 显存(推理时)
  • 推荐使用 24GB 或更大显存的 GPU

使用方法

1. 安装依赖

# 安装基本依赖
pip install torch transformers peft accelerate safetensors

# 或者指定版本安装
pip install torch>=2.0.0
pip install transformers>=4.35.2
pip install peft>=0.7.0
pip install accelerate>=0.25.0
pip install safetensors>=0.4.1

2. 加载模型

from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel
import torch

# 加载基础模型
base_model = AutoModelForCausalLM.from_pretrained(
    "deepseek-ai/deepseek-llm-7b-chat",
    trust_remote_code=True,
    torch_dtype=torch.half,
    device_map="auto"
)

# 加载 tokenizer
tokenizer = AutoTokenizer.from_pretrained(
    "deepseek-ai/deepseek-llm-7b-chat",
    use_fast=False,
    trust_remote_code=True
)

# 加载 LoRA 权重
model = PeftModel.from_pretrained(
    base_model,
    "fage13141/fage",
    torch_dtype=torch.half,
    device_map="auto"
)

# 使用示例
prompt = "你的提示词"
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)

3. 生成参数说明

generate 函数中,你可以调整以下参数来控制生成效果:

  • max_new_tokens: 生成的最大token数
  • temperature: 温度参数,控制随机性(0.0-1.0)
  • top_p: 控制采样的概率阈值
  • repetition_penalty: 重复惩罚参数

示例:

outputs = model.generate(
    **inputs,
    max_new_tokens=512,
    temperature=0.7,
    top_p=0.9,
    repetition_penalty=1.1
)

常见问题

  1. 显存不足

    • 尝试减小 batch_size
    • 使用 8-bit 量化: load_in_8bit=True
    • 使用 CPU 加载: device_map="cpu"
  2. 模型加载失败

    • 确保已安装所有必需依赖
    • 检查 GPU 显存是否足够
    • 确保网络连接正常

引用和致谢