🤖 Interius LLM — Strategic Marketing Agent
Este modelo ha sido afinado con QLoRA sobre LLaMA 3.1
para funcionar como un asesor inteligente de estrategias publicitarias. Forma parte de la plataforma Interius, un sistema que optimiza campañas digitales para instituciones educativas en LATAM.
📦 Dataset de Entrenamiento
Entrenado con un dataset instructivo de más de 300 ejemplos tipo Alpaca con el siguiente formato:
instruction
: qué pregunta el usuarioinput
: contexto adicionaloutput
: respuesta estructurada en copywriting, asignación de presupuesto, targeting y más
🎯 Casos de uso esperados
- Simulación de estrategias publicitarias
- Generación de copys persuasivos
- Evaluación de canales según eficiencia
- Asistencia a ejecutivos de cuentas en agencias
⚙️ Detalles técnicos
- Base model:
meta-llama/Llama-3.2-1B
- Técnica:
QLoRA
+PEFT
- Tokenizer adaptado
- Parámetros entrenables: solo LoRA adapters
- Máximo contexto: 512 tokens
🧠 Ejemplo de uso
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model = AutoModelForCausalLM.from_pretrained("RafaM97/Interius-LLM", device_map="auto", torch_dtype=torch.float16)
tokenizer = AutoTokenizer.from_pretrained("RafaM97/Interius-LLM")
prompt = "¿Cómo distribuir $50,000 entre Google y Meta para una campaña educativa en Monterrey?"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=300)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
---
license: mit
---
- Downloads last month
- 5
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
Model tree for RafaM97/Llama_LoraM
Base model
meta-llama/Llama-3.1-8B
Finetuned
meta-llama/Llama-3.1-8B-Instruct