File size: 2,098 Bytes
554f202
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
Dataset Multimodal - Documentación
==================================

1. Descripción del Dataset
-------------------------
Este dataset contiene información extraída de 9 archivos PDF.
Total de entradas: 295
Total de páginas procesadas: 295
Total de imágenes extraídas: 2072

2. Estructura del Dataset
-------------------------
Cada entrada en el dataset contiene la siguiente información:
- file: Nombre del archivo PDF de origen
- page: Número de página dentro del PDF
- text: Texto extraído de la página
- tokens: Tokens generados a partir del texto (guardados en dataset_tensors.pt)
- images: Lista de hashes de imágenes extraídas de la página (guardadas en dataset_tensors.pt)
- chapter: Título del capítulo al que pertenece la página
- chapter_summary: Resumen del contenido del capítulo

3. Archivos Generados
---------------------
- dataset_multimodal.csv: Contiene toda la información excepto los tensores
- dataset_tensors.pt: Archivo PyTorch con los tensores de texto e imagen
- images/: Directorio con todas las imágenes extraídas

4. Cómo Usar el Dataset
----------------------
Para cargar y utilizar este dataset en un modelo de aprendizaje profundo:

```python
import pandas as pd
import torch

# Cargar el CSV
df = pd.read_csv('dataset_multimodal.csv')

# Cargar los tensores
tensors = torch.load('dataset_tensors.pt')
text_tokens = tensors['text_tokens']
image_tensors = tensors['image_tensors']

# Ejemplo de acceso a los datos
for i, row in df.iterrows():
    print(f"Archivo: {row['file']}, Página: {row['page']}")
    print(f"Texto: {row['text'][:100]}...")
    print(f"Tokens: {text_tokens[i]['input_ids'].shape}")
    print(f"Imágenes: {len(row['images'])}")
    for img_hash in row['images']:
        print(f"Imagen {img_hash}: {image_tensors[img_hash]['tensor'].shape}")
```

5. Notas Adicionales
--------------------
- Los tokens de texto están limitados a una longitud máxima de 512 tokens.
- Las imágenes han sido redimensionadas a 224x224 píxeles y normalizadas.
- Asegúrese de tener suficiente memoria RAM al cargar el dataset completo.