|
Dataset Multimodal - Documentación |
|
================================== |
|
|
|
1. Descripción del Dataset |
|
------------------------- |
|
Este dataset contiene información extraída de 9 archivos PDF. |
|
Total de entradas: 295 |
|
Total de páginas procesadas: 295 |
|
Total de imágenes extraídas: 2072 |
|
|
|
2. Estructura del Dataset |
|
------------------------- |
|
Cada entrada en el dataset contiene la siguiente información: |
|
- file: Nombre del archivo PDF de origen |
|
- page: Número de página dentro del PDF |
|
- text: Texto extraído de la página |
|
- tokens: Tokens generados a partir del texto (guardados en dataset_tensors.pt) |
|
- images: Lista de hashes de imágenes extraídas de la página (guardadas en dataset_tensors.pt) |
|
- chapter: Título del capítulo al que pertenece la página |
|
- chapter_summary: Resumen del contenido del capítulo |
|
|
|
3. Archivos Generados |
|
--------------------- |
|
- dataset_multimodal.csv: Contiene toda la información excepto los tensores |
|
- dataset_tensors.pt: Archivo PyTorch con los tensores de texto e imagen |
|
- images/: Directorio con todas las imágenes extraídas |
|
|
|
4. Cómo Usar el Dataset |
|
---------------------- |
|
Para cargar y utilizar este dataset en un modelo de aprendizaje profundo: |
|
|
|
```python |
|
import pandas as pd |
|
import torch |
|
|
|
# Cargar el CSV |
|
df = pd.read_csv('dataset_multimodal.csv') |
|
|
|
# Cargar los tensores |
|
tensors = torch.load('dataset_tensors.pt') |
|
text_tokens = tensors['text_tokens'] |
|
image_tensors = tensors['image_tensors'] |
|
|
|
# Ejemplo de acceso a los datos |
|
for i, row in df.iterrows(): |
|
print(f"Archivo: {row['file']}, Página: {row['page']}") |
|
print(f"Texto: {row['text'][:100]}...") |
|
print(f"Tokens: {text_tokens[i]['input_ids'].shape}") |
|
print(f"Imágenes: {len(row['images'])}") |
|
for img_hash in row['images']: |
|
print(f"Imagen {img_hash}: {image_tensors[img_hash]['tensor'].shape}") |
|
``` |
|
|
|
5. Notas Adicionales |
|
-------------------- |
|
- Los tokens de texto están limitados a una longitud máxima de 512 tokens. |
|
- Las imágenes han sido redimensionadas a 224x224 píxeles y normalizadas. |
|
- Asegúrese de tener suficiente memoria RAM al cargar el dataset completo. |
|
|