import gradio as gr from transformers import pipeline, Trainer, TrainingArguments, DistilBertForSequenceClassification, DistilBertTokenizer from datasets import load_dataset import torch import os # Carica il dataset spam detection da Hugging Face dataset = load_dataset("tanquangduong/spam-detection-dataset-splits") # Carica il tokenizer e il modello tokenizer = DistilBertTokenizer.from_pretrained("distilbert-base-uncased") model = DistilBertForSequenceClassification.from_pretrained("distilbert-base-uncased") # Tokenizzazione del dataset def tokenize_function(examples): return tokenizer(examples['text'], truncation=True, padding="max_length", max_length=128) tokenized_datasets = dataset.map(tokenize_function, batched=True) # Suddivisione in training e test set train_dataset = tokenized_datasets["train"].shuffle(seed=42).select(range(2000)) # Ridotto per velocizzare l'addestramento test_dataset = tokenized_datasets["test"].shuffle(seed=42).select(range(500)) # Definizione degli argomenti per l'addestramento, inclusa la frequenza di salvataggio dei checkpoint training_args = TrainingArguments( output_dir="./results", evaluation_strategy="epoch", save_strategy="epoch", # Salva un checkpoint alla fine di ogni epoch learning_rate=2e-5, per_device_train_batch_size=16, per_device_eval_batch_size=16, num_train_epochs=1, # Ridotto a 1 epoch per evitare timeout weight_decay=0.01, save_total_limit=2, # Limita il numero di checkpoint salvati per risparmiare spazio load_best_model_at_end=True, ) # Creazione dell'oggetto Trainer trainer = Trainer( model=model, args=training_args, train_dataset=train_dataset, eval_dataset=test_dataset, ) # Avvio dell'addestramento if os.path.exists("./results/checkpoint-1"): # Verifica se esiste un checkpoint salvato print("Riprendi l'addestramento dal checkpoint...") trainer.train(resume_from_checkpoint="./results/checkpoint-1") else: print("Inizia l'addestramento da zero...") trainer.train() # Definizione della funzione di classificazione usando Gradio def classify_email(text): classifier = pipeline("text-classification", model=model, tokenizer=tokenizer, framework="pt") result = classifier(text) label = result[0]['label'] score = result[0]['score'] return {label: score} # Interfaccia con Gradio iface = gr.Interface(fn=classify_email, inputs="text", outputs="label", title="ZeroSpam Email Classifier", description="Inserisci l'email da analizzare per determinare se รจ spam o phishing.") # Avvio dell'interfaccia iface.launch(share=True)