File size: 2,098 Bytes
554f202 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 |
Dataset Multimodal - Documentación
==================================
1. Descripción del Dataset
-------------------------
Este dataset contiene información extraída de 9 archivos PDF.
Total de entradas: 295
Total de páginas procesadas: 295
Total de imágenes extraídas: 2072
2. Estructura del Dataset
-------------------------
Cada entrada en el dataset contiene la siguiente información:
- file: Nombre del archivo PDF de origen
- page: Número de página dentro del PDF
- text: Texto extraído de la página
- tokens: Tokens generados a partir del texto (guardados en dataset_tensors.pt)
- images: Lista de hashes de imágenes extraídas de la página (guardadas en dataset_tensors.pt)
- chapter: Título del capítulo al que pertenece la página
- chapter_summary: Resumen del contenido del capítulo
3. Archivos Generados
---------------------
- dataset_multimodal.csv: Contiene toda la información excepto los tensores
- dataset_tensors.pt: Archivo PyTorch con los tensores de texto e imagen
- images/: Directorio con todas las imágenes extraídas
4. Cómo Usar el Dataset
----------------------
Para cargar y utilizar este dataset en un modelo de aprendizaje profundo:
```python
import pandas as pd
import torch
# Cargar el CSV
df = pd.read_csv('dataset_multimodal.csv')
# Cargar los tensores
tensors = torch.load('dataset_tensors.pt')
text_tokens = tensors['text_tokens']
image_tensors = tensors['image_tensors']
# Ejemplo de acceso a los datos
for i, row in df.iterrows():
print(f"Archivo: {row['file']}, Página: {row['page']}")
print(f"Texto: {row['text'][:100]}...")
print(f"Tokens: {text_tokens[i]['input_ids'].shape}")
print(f"Imágenes: {len(row['images'])}")
for img_hash in row['images']:
print(f"Imagen {img_hash}: {image_tensors[img_hash]['tensor'].shape}")
```
5. Notas Adicionales
--------------------
- Los tokens de texto están limitados a una longitud máxima de 512 tokens.
- Las imágenes han sido redimensionadas a 224x224 píxeles y normalizadas.
- Asegúrese de tener suficiente memoria RAM al cargar el dataset completo.
|