yueyulin commited on
Commit
b40e6c9
·
verified ·
1 Parent(s): b1a8537

Upload rwkv7-0.4B-g1-respark-voice-tunable_ipa/README.md with huggingface_hub

Browse files
rwkv7-0.4B-g1-respark-voice-tunable_ipa/README.md ADDED
@@ -0,0 +1,104 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # 多线程音频Token生成器
2
+
3
+ 这是一个多线程版本的音频token生成器,用于处理parquet文件并生成音频相关的tokens。
4
+
5
+ ## 主要特性
6
+
7
+ 1. **多进程处理**: 支持配置多个工作进程并行处理数据,避免Transformers模型的线程安全问题
8
+ 2. **命令行参数**: 所有配置都通过命令行参数传入
9
+ 3. **队列管理**: 使用有界队列控制内存使用,避免内存溢出
10
+ 4. **流式读取**: 支持超大文件处理,避免一次性加载所有数据到内存
11
+ 5. **进程协调**: 主进程负责数据分发,工作进程负责实际处理
12
+ 6. **独立输出**: 每个进程输出到独立的文件
13
+ 7. **性能统计**: 显示每个进程的处理数量和耗时
14
+
15
+ ## 使用方法
16
+
17
+ ### 基本用法
18
+
19
+ ```bash
20
+ python Batched_DataGenerator.py \
21
+ --parquet_file /path/to/input.parquet \
22
+ --model_path /path/to/model \
23
+ --output_dir /path/to/output \
24
+ --device_id 0 \
25
+ --batch_size 512 \
26
+ --num_threads 4
27
+ ```
28
+
29
+ ### 参数说明
30
+
31
+ - `--parquet_file`: 输入的parquet文件路径(必需)
32
+ - `--model_path`: 模型目录路径(必需)
33
+ - `--output_dir`: 输出目录路径(必需)
34
+ - `--device_id`: GPU设备ID,默认为0
35
+ - `--batch_size`: 批次大小,默认为512
36
+ - `--num_threads`: 工作进程数,默认为4
37
+
38
+ ### 示例
39
+
40
+ ```bash
41
+ # 使用8个线程处理数据
42
+ python Batched_DataGenerator.py \
43
+ --parquet_file /home/yueyulin/data/wmt19/zh-en/train-00000-of-00013.parquet \
44
+ --model_path /home/yueyulin/models/rwkv7-0.4B-g1-respark-voice-tunable_ipa \
45
+ --output_dir /home/yueyulin/data/wmt19_tokens/zh-en/ \
46
+ --device_id 0 \
47
+ --batch_size 256 \
48
+ --num_threads 8
49
+ ```
50
+
51
+ ## 输出文件
52
+
53
+ 程序会为每个工作进程创建独立的输出文件,文件名格式为:
54
+ ```
55
+ {output_dir}/{parquet_base_name}_process_{process_id}.jsonl
56
+ ```
57
+
58
+ 例如:
59
+ - `output/train-00000-of-00013_process_0.jsonl`
60
+ - `output/train-00000-of-00013_process_1.jsonl`
61
+ - `output/train-00000-of-00013_process_2.jsonl`
62
+ - `output/train-00000-of-00013_process_3.jsonl`
63
+
64
+ ## 工作流程
65
+
66
+ 1. **初始化阶段**: 主进程准备数据,每个工作进程独立加载模型、tokenizer和normalizer
67
+ 2. **流式读取**: 分块读取parquet文件,避免内存溢出
68
+ 3. **进程启动**: 启动指定数量的工作进程
69
+ 4. **数据分发**: 主进程流式分发批次数据到队列中
70
+ 5. **并行处理**: 工作进程从队列获取数据并进行处理
71
+ 6. **结果输出**: 每个进程将结果写入独立的文件
72
+ 7. **完成统计**: 显示每个进程的处理统计信息
73
+
74
+ ## 性能优化建议
75
+
76
+ 1. **进程数设置**: 建议设置为GPU数量的1-2倍
77
+ 2. **批次大小**: 根据GPU内存大小调整,内存充足时可以增大
78
+ 3. **队列大小**: 自动设置为进程数,避免内存过度使用
79
+ 4. **内存考虑**: 每个进程会独立加载模型,确保有足够的GPU内存
80
+
81
+ ## 注意事项
82
+
83
+ 1. 确保有足够的GPU内存来加载模型(每个进程会独立加载模型)
84
+ 2. 输出目录会自动创建,无需手动创建
85
+ 3. 程序会自动处理parquet文件中的剩余数据
86
+ 4. 每个进程独立加载模型,避免Transformers的线程安全问题
87
+ 5. 支持超大文件处理,使用流式读取避免内存溢出
88
+ 6. 程序会显示处理进度,方便监控长时间运行的任务
89
+ 7. 多进程模式会占用更多GPU内存,但能确保稳定性
90
+
91
+ ## 错误处理
92
+
93
+ 程序包含完善的错误处理机制:
94
+ - 检查输入文件和模型目录是否存在
95
+ - 捕获并报告线程处理过程中的错误
96
+ - 优雅地处理程序退出
97
+
98
+ ## 依赖要求
99
+
100
+ - Python 3.7+
101
+ - PyTorch
102
+ - Transformers
103
+ - Polars
104
+ - 其他相关依赖包