File size: 3,882 Bytes
5778534
 
 
 
 
 
 
 
 
 
6d577d6
5778534
6d577d6
5778534
 
6d577d6
 
5778534
6d577d6
 
 
 
5778534
 
 
 
 
6d577d6
 
 
 
 
 
 
5778534
 
 
 
6d577d6
5778534
 
 
 
6d577d6
5778534
 
28f3afb
5778534
 
 
 
 
 
 
 
 
 
 
28f3afb
5778534
 
 
 
 
 
 
 
 
 
28f3afb
5778534
 
 
 
 
 
 
 
28f3afb
5778534
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
28f3afb
 
 
 
 
5778534
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
#/modules/database/discourse_mongo_db.py

#/modules/database/discoruse_mongo_db.py
from .mongo_db import insert_document, find_documents, update_document, delete_document
from datetime import datetime, timezone
import logging

logger = logging.getLogger(__name__)
COLLECTION_NAME = 'student_discourse_analysis'

def store_student_discourse_result(username, text1, text2, analysis_result):
    """
    Guarda el resultado del análisis de discurso comparativo en MongoDB.
    Args:
        username: Nombre del usuario
        text1: Primer texto analizado (patrón)
        text2: Segundo texto analizado (comparación)
        analysis_result: Resultado del análisis que incluye:
            - key_concepts1: Lista de conceptos clave y frecuencias del primer texto
            - key_concepts2: Lista de conceptos clave y frecuencias del segundo texto
            - graph1: Gráfico del primer texto
            - graph2: Gráfico del segundo texto
    """
    try:
        analysis_document = {
            'username': username,
            'timestamp': datetime.now(timezone.utc).isoformat(),
            'text1': text1,
            'text2': text2,
            'analysis_type': 'discourse',
            'key_concepts1': analysis_result['key_concepts1'],
            'key_concepts2': analysis_result['key_concepts2'],
            'graph1': analysis_result['graph1'],
            'graph2': analysis_result['graph2']
        }
        
        result = insert_document(COLLECTION_NAME, analysis_document)
        if result:
            logger.info(f"Análisis del discurso guardado con ID: {result} para el usuario: {username}")
            return True
        return False
        
    except Exception as e:
        logger.error(f"Error al guardar el análisis del discurso: {str(e)}")
        return False

def get_student_discourse_analysis(username, limit=10):
    """
    Recupera los análisis semánticos de un estudiante.
    Args:
        username: Nombre del usuario
        limit: Número máximo de análisis a retornar
    Returns:
        list: Lista de análisis semánticos
    """
    query = {"username": username, "analysis_type": "semantic"}
    return find_documents(COLLECTION_NAME, query, sort=[("timestamp", -1)], limit=limit)

def update_student_discourse_analysis(analysis_id, update_data):
    """
    Actualiza un análisis semántico existente.
    Args:
        analysis_id: ID del análisis a actualizar
        update_data: Datos a actualizar
    """
    query = {"_id": analysis_id}
    update = {"$set": update_data}
    return update_document(COLLECTION_NAME, query, update)

def delete_student_discourse_analysis(analysis_id):
    """
    Elimina un análisis semántico.
    Args:
        analysis_id: ID del análisis a eliminar
    """
    query = {"_id": analysis_id}
    return delete_document(COLLECTION_NAME, query)

def get_student_discourse_data(username):
    """
    Obtiene todos los análisis semánticos de un estudiante.
    Args:
        username: Nombre del usuario
    Returns:
        dict: Diccionario con todos los análisis del estudiante
    """
    analyses = get_student_semantic_analysis(username, limit=None)
    
    formatted_analyses = []
    for analysis in analyses:
        formatted_analysis = {
            'timestamp': analysis['timestamp'],
            'text': analysis['text'],
            'key_concepts': analysis['key_concepts'],
            'entities': analysis['entities']
            # No incluimos los gráficos en el resumen general
        }
        formatted_analyses.append(formatted_analysis)
    
    return {
        'entries': formatted_analyses
    }

# Exportar las funciones necesarias
__all__ = [
    'store_student_discourse_result',
    'get_student_discourse_analysis',
    'update_student_discourse_analysis',
    'delete_student_discourse_analysis',
    'get_student_discourse_data'
]