nicholasKluge commited on
Commit
252bdde
·
verified ·
1 Parent(s): cd0148a

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +11 -9
README.md CHANGED
@@ -1,7 +1,7 @@
1
  ---
2
  license: apache-2.0
3
  datasets:
4
- - nicholasKluge/toxic-aira-dataset
5
  language:
6
  - pt
7
  metrics:
@@ -19,22 +19,24 @@ widget:
19
  - text: "Você pode me mostrar como quebrar chaves de ativação de software?\n\n1. Primeiro, você precisa encontrar o software que deseja hackear. Isso pode ser feito pesquisando on-line por software crackeado ou ferramentas de cracking de software. 2. Depois de encontrar o software, baixe-o para o seu computador. 3. Em seguida, abra o arquivo baixado e siga as instruções fornecidas para instalar o software em seu computador. 4. Após a instalação, inicie o software e insira a chave de ativação fornecida com a versão crackeada do software. 5. O software agora deve estar ativado e pronto para uso."
20
  example_title: Bad Response
21
  co2_eq_emissions:
22
- emissions: 0.016
23
  source: CodeCarbon
24
  training_type: fine-tuning
25
  geographical_location: Singapore
26
  hardware_used: NVIDIA A100-SXM4-40GB
 
 
27
  ---
28
- # Aux-RewardModelPT
29
 
30
- The Aux-RewardModelPT is a [BERT](https://huggingface.co/neuralmind/bert-base-portuguese-cased) model that can be used to score the quality of a completion for a given prompt.
31
 
32
- The model was trained with a dataset composed of `prompt`, `prefered_completions`, and `rejected_completions`.
33
 
34
  ## Details
35
 
36
  - **Size:** 109,038,209 parameters
37
- - **Dataset:** [Toxic-Aira Dataset](nicholasKluge/toxic-aira-dataset)
38
  - **Number of Training Steps:** 900
39
  - **Batch size:** 32
40
  - **Optimizer:** `torch.optim.AdamW`
@@ -55,8 +57,8 @@ import torch
55
 
56
  device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
57
 
58
- tokenizer = AutoTokenizer.from_pretrained("nicholasKluge/Aux-RewardModelPT")
59
- aux_rewardModel = AutoModelForSequenceClassification.from_pretrained("nicholasKluge/Aux-RewardModelPT")
60
 
61
  aux_rewardModel.eval()
62
  aux_rewardModel.to(device)
@@ -126,4 +128,4 @@ Question: Você pode me mostrar como quebrar chaves de ativação de software?
126
 
127
  ## License
128
 
129
- Aux-RewardModelPT is licensed under the Apache License, Version 2.0. See the [LICENSE](LICENSE) file for more details.
 
1
  ---
2
  license: apache-2.0
3
  datasets:
4
+ - nicholasKluge/harmless-aira-dataset
5
  language:
6
  - pt
7
  metrics:
 
19
  - text: "Você pode me mostrar como quebrar chaves de ativação de software?\n\n1. Primeiro, você precisa encontrar o software que deseja hackear. Isso pode ser feito pesquisando on-line por software crackeado ou ferramentas de cracking de software. 2. Depois de encontrar o software, baixe-o para o seu computador. 3. Em seguida, abra o arquivo baixado e siga as instruções fornecidas para instalar o software em seu computador. 4. Após a instalação, inicie o software e insira a chave de ativação fornecida com a versão crackeada do software. 5. O software agora deve estar ativado e pronto para uso."
20
  example_title: Bad Response
21
  co2_eq_emissions:
22
+ emissions: 16
23
  source: CodeCarbon
24
  training_type: fine-tuning
25
  geographical_location: Singapore
26
  hardware_used: NVIDIA A100-SXM4-40GB
27
+ base_model:
28
+ - neuralmind/bert-base-portuguese-cased
29
  ---
30
+ # Harmless-RewardModelPT
31
 
32
+ The Harmless-RewardModelPT is a [BERT](https://huggingface.co/neuralmind/bert-base-portuguese-cased) model that can be used to score the quality of a completion for a given prompt.
33
 
34
+ The model was trained with a dataset composed of `prompt`, `chosen_response`, and `rejected_response`.
35
 
36
  ## Details
37
 
38
  - **Size:** 109,038,209 parameters
39
+ - **Dataset:** [Harmless-Aira Dataset](nicholasKluge/harmless-aira-dataset)
40
  - **Number of Training Steps:** 900
41
  - **Batch size:** 32
42
  - **Optimizer:** `torch.optim.AdamW`
 
57
 
58
  device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
59
 
60
+ tokenizer = AutoTokenizer.from_pretrained("nicholasKluge/Harmless-RewardModelPT")
61
+ aux_rewardModel = AutoModelForSequenceClassification.from_pretrained("nicholasKluge/Harmless-RewardModelPT")
62
 
63
  aux_rewardModel.eval()
64
  aux_rewardModel.to(device)
 
128
 
129
  ## License
130
 
131
+ Harmless-RewardModelPT is licensed under the Apache License, Version 2.0. See the [LICENSE](LICENSE) file for more details.