Novaciano commited on
Commit
dba8f44
·
verified ·
1 Parent(s): 7a4d30f

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +29 -41
README.md CHANGED
@@ -22,22 +22,43 @@ base_model:
22
  - AiAF/Pretrained-SCP-1B-QLoRA
23
  library_name: transformers
24
  tags:
 
25
  - mergekit
26
  - merge
 
 
 
 
 
 
27
 
28
  ---
29
- # merge
30
 
31
- This is a merge of pre-trained language models created using [mergekit](https://github.com/cg123/mergekit).
32
 
33
- ## Merge Details
34
- ### Merge Method
35
 
36
- This model was merged using the [Model Stock](https://arxiv.org/abs/2403.19522) merge method using [bunnycore/FuseChat-3.2-1B-Creative-RP](https://huggingface.co/bunnycore/FuseChat-3.2-1B-Creative-RP) as a base.
37
 
38
- ### Models Merged
39
 
40
- The following models were included in the merge:
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
41
  * [danieliuspodb/llama-3.2-1b-extremist4](https://huggingface.co/danieliuspodb/llama-3.2-1b-extremist4)
42
  * [huihui-ai/Llama-3.2-1B-Instruct-abliterated](https://huggingface.co/huihui-ai/Llama-3.2-1B-Instruct-abliterated)
43
  * [UUFO-Aigis/Magnum-1b-v1](https://huggingface.co/UUFO-Aigis/Magnum-1b-v1)
@@ -56,37 +77,4 @@ The following models were included in the merge:
56
  * [Nexesenex/Llama_3.2_1b_SunOrca_V1](https://huggingface.co/Nexesenex/Llama_3.2_1b_SunOrca_V1)
57
  * [NickyNicky/Llama-1B-GRPO_Final](https://huggingface.co/NickyNicky/Llama-1B-GRPO_Final)
58
  * [DeepAutoAI/Explore_Llama-3.2-1B-Inst_v1.1](https://huggingface.co/DeepAutoAI/Explore_Llama-3.2-1B-Inst_v1.1)
59
- * [AiAF/Pretrained-SCP-1B-QLoRA](https://huggingface.co/AiAF/Pretrained-SCP-1B-QLoRA)
60
-
61
- ### Configuration
62
-
63
- The following YAML configuration was used to produce this model:
64
-
65
- ```yaml
66
- models:
67
- - model: danieliuspodb/llama-3.2-1b-extremist4
68
- - model: carsenk/llama3.2_1b_2025_uncensored_v2
69
- - model: UUFO-Aigis/Magnum-1b-v1
70
- - model: AiAF/Pretrained-SCP-1B-QLoRA
71
- - model: Nexesenex/Dolphin3.0-Llama3.1-1B-abliterated
72
- - model: KidIkaros/Llama-3.2-1B-Instruct-abliterated
73
- - model: DeepAutoAI/Explore_Llama-3.2-1B-Inst_v1.1
74
- - model: Trelis/Llama-3.2-1B-Instruct-MATH-synthetic
75
- - model: prithivMLmods/Bellatrix-Tiny-1B-v3
76
- - model: unsloth/Llama-3.2-1B-Instruct
77
- - model: CarrotAI/Llama-3.2-Rabbit-Ko-1B-Instruct
78
- - model: huihui-ai/MicroThinker-1B-Preview
79
- - model: passing2961/Thanos-1B
80
- - model: prithivMLmods/Llama-Express.1-Math
81
- - model: bunnycore/FuseChat-3.2-1B-Creative-RP
82
- - model: NickyNicky/Llama-1B-GRPO_Final
83
- - model: huihui-ai/Llama-3.2-1B-Instruct-abliterated
84
- - model: xdrshjr/llama3.2_1b_uncensored_5000_8epoch_lora
85
- - model: cognitivecomputations/Dolphin3.0-Llama3.2-1B
86
- - model: Nexesenex/Llama_3.2_1b_SunOrca_V1
87
- merge_method: model_stock
88
- base_model: bunnycore/FuseChat-3.2-1B-Creative-RP
89
- dtype: bfloat16
90
- parameters:
91
- t: [0, 0.5, 1, 0.5, 0]
92
- ```
 
22
  - AiAF/Pretrained-SCP-1B-QLoRA
23
  library_name: transformers
24
  tags:
25
+ - transformers
26
  - mergekit
27
  - merge
28
+ - 1b
29
+ - rp
30
+ - 4-bit
31
+ - nsfw
32
+ - roleplay
33
+ - español
34
 
35
  ---
36
+ # Mezcla
37
 
38
+ Esta mezcla de modelos pre-entrenados fue creado usando [mergekit](https://github.com/cg123/mergekit).
39
 
40
+ ## Detalle de la Mezcla
 
41
 
42
+ "Blast Processing" es una variante innovadora del modelo Llama3.2-1B, diseñado para ofrecer un rendimiento explosivamente rápido y eficiente en tareas de generación y comprensión de lenguaje. Inspirado en la idea de “procesamiento a todo gas” y en los avances tecnológicos que permiten manejar enormes cantidades de datos a alta velocidad, este modelo fue **creado a partir de la fusión de 20 Modelos** *(los mejores que encontré hasta el momento)*, técnicas de compresión avanzada y optimizaciones de hardware para brindar respuestas en tiempo récord haciendo uso de poca memoria RAM, sin sacrificar la calidad o la coherencia del output.
43
 
44
+ **Entre sus características distintivas se destacan:**
45
 
46
+ - **Velocidad excepcional:** Gracias a optimizaciones en la arquitectura y técnicas de cuantización, "Blast Processing" maximiza el uso del hardware, permitiendo una generación de tokens muy rápida, ideal para aplicaciones en tiempo real.
47
+ - **Eficiencia en recursos:** Su diseño ligero lo hace apto para dispositivos móviles y entornos con recursos limitados, sin perder la capacidad de procesamiento que se espera de modelos de última generación.
48
+ - **Rendimiento robusto:** Mantiene la calidad y precisión en tareas de lenguaje natural, al integrar refinamientos en el entrenamiento que refuerzan su coherencia y consistencia, incluso en escenarios de alta demanda.
49
+ - **Versatilidad multimodal:** Además de trabajar con texto, este modelo puede integrarse en aplicaciones que requieran procesamiento de imágenes, haciendo uso de adaptadores que permiten la fusión de información visual y textual.
50
+
51
+ Con "Blast Processing", no solo se apuesta por la **potencia bruta en velocidad**, sino también por una experiencia de usuario más dinámica y fluida, abriendo paso a nuevas aplicaciones en áreas como asistentes virtuales, análisis de datos en tiempo real y sistemas interactivos **para dispositivos móviles.**
52
+
53
+ Esta denominación evoca una imagen de tecnología de alto rendimiento, lista para "despegar" en cualquier escenario donde la rapidez y la eficiencia sean esenciales, haciendo honor al legado de la innovación en IA y procesamiento de datos.
54
+
55
+ ### Método de Mezcla
56
+
57
+ Este modelo fue mezclado usando el método de mezcla [Model Stock](https://arxiv.org/abs/2403.19522) usando el modelo [bunnycore/FuseChat-3.2-1B-Creative-RP](https://huggingface.co/bunnycore/FuseChat-3.2-1B-Creative-RP) como base.
58
+
59
+ ### Modelos Mezclados
60
+
61
+ Los siguientes modelos fueron incluídos en la mezcla:
62
  * [danieliuspodb/llama-3.2-1b-extremist4](https://huggingface.co/danieliuspodb/llama-3.2-1b-extremist4)
63
  * [huihui-ai/Llama-3.2-1B-Instruct-abliterated](https://huggingface.co/huihui-ai/Llama-3.2-1B-Instruct-abliterated)
64
  * [UUFO-Aigis/Magnum-1b-v1](https://huggingface.co/UUFO-Aigis/Magnum-1b-v1)
 
77
  * [Nexesenex/Llama_3.2_1b_SunOrca_V1](https://huggingface.co/Nexesenex/Llama_3.2_1b_SunOrca_V1)
78
  * [NickyNicky/Llama-1B-GRPO_Final](https://huggingface.co/NickyNicky/Llama-1B-GRPO_Final)
79
  * [DeepAutoAI/Explore_Llama-3.2-1B-Inst_v1.1](https://huggingface.co/DeepAutoAI/Explore_Llama-3.2-1B-Inst_v1.1)
80
+ * [AiAF/Pretrained-SCP-1B-QLoRA](https://huggingface.co/AiAF/Pretrained-SCP-1B-QLoRA)