Create README.md
Browse files
README.md
ADDED
@@ -0,0 +1,58 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
Dataset Multimodal - Documentación
|
2 |
+
==================================
|
3 |
+
|
4 |
+
1. Descripción del Dataset
|
5 |
+
-------------------------
|
6 |
+
Este dataset contiene información extraída de 9 archivos PDF.
|
7 |
+
Total de entradas: 295
|
8 |
+
Total de páginas procesadas: 295
|
9 |
+
Total de imágenes extraídas: 2072
|
10 |
+
|
11 |
+
2. Estructura del Dataset
|
12 |
+
-------------------------
|
13 |
+
Cada entrada en el dataset contiene la siguiente información:
|
14 |
+
- file: Nombre del archivo PDF de origen
|
15 |
+
- page: Número de página dentro del PDF
|
16 |
+
- text: Texto extraído de la página
|
17 |
+
- tokens: Tokens generados a partir del texto (guardados en dataset_tensors.pt)
|
18 |
+
- images: Lista de hashes de imágenes extraídas de la página (guardadas en dataset_tensors.pt)
|
19 |
+
- chapter: Título del capítulo al que pertenece la página
|
20 |
+
- chapter_summary: Resumen del contenido del capítulo
|
21 |
+
|
22 |
+
3. Archivos Generados
|
23 |
+
---------------------
|
24 |
+
- dataset_multimodal.csv: Contiene toda la información excepto los tensores
|
25 |
+
- dataset_tensors.pt: Archivo PyTorch con los tensores de texto e imagen
|
26 |
+
- images/: Directorio con todas las imágenes extraídas
|
27 |
+
|
28 |
+
4. Cómo Usar el Dataset
|
29 |
+
----------------------
|
30 |
+
Para cargar y utilizar este dataset en un modelo de aprendizaje profundo:
|
31 |
+
|
32 |
+
```python
|
33 |
+
import pandas as pd
|
34 |
+
import torch
|
35 |
+
|
36 |
+
# Cargar el CSV
|
37 |
+
df = pd.read_csv('dataset_multimodal.csv')
|
38 |
+
|
39 |
+
# Cargar los tensores
|
40 |
+
tensors = torch.load('dataset_tensors.pt')
|
41 |
+
text_tokens = tensors['text_tokens']
|
42 |
+
image_tensors = tensors['image_tensors']
|
43 |
+
|
44 |
+
# Ejemplo de acceso a los datos
|
45 |
+
for i, row in df.iterrows():
|
46 |
+
print(f"Archivo: {row['file']}, Página: {row['page']}")
|
47 |
+
print(f"Texto: {row['text'][:100]}...")
|
48 |
+
print(f"Tokens: {text_tokens[i]['input_ids'].shape}")
|
49 |
+
print(f"Imágenes: {len(row['images'])}")
|
50 |
+
for img_hash in row['images']:
|
51 |
+
print(f"Imagen {img_hash}: {image_tensors[img_hash]['tensor'].shape}")
|
52 |
+
```
|
53 |
+
|
54 |
+
5. Notas Adicionales
|
55 |
+
--------------------
|
56 |
+
- Los tokens de texto están limitados a una longitud máxima de 512 tokens.
|
57 |
+
- Las imágenes han sido redimensionadas a 224x224 píxeles y normalizadas.
|
58 |
+
- Asegúrese de tener suficiente memoria RAM al cargar el dataset completo.
|