Modelo Base: nicholasKluge/TeenyTinyLlama-160m

Detalhes

  • Epochs: 3
  • Batch: 16
  • Optimizer: torch.optim.AdamW (learning_rate = 4e-5, epsilon = 1e-8)
  • GPU: 1 NVIDIA RTX 3060
  • TEMPO: 36 minutos

Execução:

from transformers import AutoTokenizer
from transformers import AutoModelForSequenceClassification
import torch
tokenizer = AutoTokenizer.from_pretrained("JJhooww/Classificador_de_prompt")
features = tokenizer(['Preciso de um script em python'], padding=True, truncation=True, return_tensors="pt")

model = AutoModelForSequenceClassification.from_pretrained("JJhooww/Classificador_de_prompt")
with torch.no_grad():
    logits = model(**features).logits

predicted_class_id = logits.argmax().item()
model.config.id2label[predicted_class_id]
#'Programação e Desenvolvimento'

Categorias de prompts

### Informação Geral
### Análise e Interpretação
### Aprendizado e Tutorial
### Cálculos e Matemática
### Programação e Desenvolvimento
### Linguagem e Tradução
### Consultoria e Estratégia
### Criação e Criatividade
### Suporte e Ajuda
### Verificação e Validação

Accuracy: 0.791537%

Downloads last month
230
Safetensors
Model size
138M params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and the model is not deployed on the HF Inference API.