Datasets:
metadata
language:
- ru
license:
- cc-by-sa-3.0
- gfdl
size_categories:
- 1M<n<10M
task_categories:
- text-generation
task_ids:
- language-modeling
- masked-language-modeling
Wikipedia RuDataset
Это сокращённая версия обширного русского датасета, предоставленного Wikimedia/Wikipedia. Для обучения языковых моделей, в формате чата. Содержит статьи, очищенные от служебной информации и отформатированные для тренировки LLM.
Структура данных
- num - уникальный номер записи в датасете
- system - системный промпт для модели (настраивается при конвертации)
- user - заголовок статьи из Википедии
- assistant - основной текст статьи
- u_tokens - количество токенов в заголовке
- a_tokens - количество токенов в тексте статьи
- u_lang - язык заголовка (ru)
- a_lang - язык текста (ru)
- cluster - номер кластера для группировки похожих статей
RuDataset - Русскоязычный датасет для обучения языковых моделей
Описание структуры данных
Датасет хранится в формате Parquet и имеет следующую структуру:
Основные поля
Поле | Тип | Описание |
---|---|---|
num | int64 | Уникальный номер записи |
system | string | Системный промпт для модели |
user | string | Запрос пользователя (вопрос/заголовок) |
assistant | string | Ответ ассистента (текст/содержание) |
u_tokens | int64 | Количество токенов в запросе пользователя |
a_tokens | int64 | Количество токенов в ответе ассистента |
u_lang | string | Язык запроса пользователя (ru) |
a_lang | string | Язык ответа ассистента (ru) |
cluster | int64 | Номер кластера для группировки похожих записей |
Обработка текста
- Удаление метаданных в {{...}}
- Очистка от BOM и спецсимволов
- Удаление секции "См. также" и всего после неё
- Обрезка до последнего полного предложения
- Возможность ограничить длину текста (в словах)
- Нормализация кириллицы (ё -> е)
- Очистка от дублей пробелов/пунктуации
Доступные варианты:
- Базовый энциклопедический ассистент
- Эксперт по русской Википедии
- Помощник с простыми объяснениями
- Пользовательский промпт
Технические детали
Формат: Parquet Сжатие: Snappy Кодировка: UTF-8 Язык: Русский
Использование
- Для обучения LLM
- Для fine-tuning
- Для создания embeddings
- Для тестирования моделей