Update README.md
Browse files
README.md
CHANGED
@@ -22,22 +22,43 @@ base_model:
|
|
22 |
- AiAF/Pretrained-SCP-1B-QLoRA
|
23 |
library_name: transformers
|
24 |
tags:
|
|
|
25 |
- mergekit
|
26 |
- merge
|
|
|
|
|
|
|
|
|
|
|
|
|
27 |
|
28 |
---
|
29 |
-
#
|
30 |
|
31 |
-
|
32 |
|
33 |
-
##
|
34 |
-
### Merge Method
|
35 |
|
36 |
-
|
37 |
|
38 |
-
|
39 |
|
40 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
41 |
* [danieliuspodb/llama-3.2-1b-extremist4](https://huggingface.co/danieliuspodb/llama-3.2-1b-extremist4)
|
42 |
* [huihui-ai/Llama-3.2-1B-Instruct-abliterated](https://huggingface.co/huihui-ai/Llama-3.2-1B-Instruct-abliterated)
|
43 |
* [UUFO-Aigis/Magnum-1b-v1](https://huggingface.co/UUFO-Aigis/Magnum-1b-v1)
|
@@ -56,37 +77,4 @@ The following models were included in the merge:
|
|
56 |
* [Nexesenex/Llama_3.2_1b_SunOrca_V1](https://huggingface.co/Nexesenex/Llama_3.2_1b_SunOrca_V1)
|
57 |
* [NickyNicky/Llama-1B-GRPO_Final](https://huggingface.co/NickyNicky/Llama-1B-GRPO_Final)
|
58 |
* [DeepAutoAI/Explore_Llama-3.2-1B-Inst_v1.1](https://huggingface.co/DeepAutoAI/Explore_Llama-3.2-1B-Inst_v1.1)
|
59 |
-
* [AiAF/Pretrained-SCP-1B-QLoRA](https://huggingface.co/AiAF/Pretrained-SCP-1B-QLoRA)
|
60 |
-
|
61 |
-
### Configuration
|
62 |
-
|
63 |
-
The following YAML configuration was used to produce this model:
|
64 |
-
|
65 |
-
```yaml
|
66 |
-
models:
|
67 |
-
- model: danieliuspodb/llama-3.2-1b-extremist4
|
68 |
-
- model: carsenk/llama3.2_1b_2025_uncensored_v2
|
69 |
-
- model: UUFO-Aigis/Magnum-1b-v1
|
70 |
-
- model: AiAF/Pretrained-SCP-1B-QLoRA
|
71 |
-
- model: Nexesenex/Dolphin3.0-Llama3.1-1B-abliterated
|
72 |
-
- model: KidIkaros/Llama-3.2-1B-Instruct-abliterated
|
73 |
-
- model: DeepAutoAI/Explore_Llama-3.2-1B-Inst_v1.1
|
74 |
-
- model: Trelis/Llama-3.2-1B-Instruct-MATH-synthetic
|
75 |
-
- model: prithivMLmods/Bellatrix-Tiny-1B-v3
|
76 |
-
- model: unsloth/Llama-3.2-1B-Instruct
|
77 |
-
- model: CarrotAI/Llama-3.2-Rabbit-Ko-1B-Instruct
|
78 |
-
- model: huihui-ai/MicroThinker-1B-Preview
|
79 |
-
- model: passing2961/Thanos-1B
|
80 |
-
- model: prithivMLmods/Llama-Express.1-Math
|
81 |
-
- model: bunnycore/FuseChat-3.2-1B-Creative-RP
|
82 |
-
- model: NickyNicky/Llama-1B-GRPO_Final
|
83 |
-
- model: huihui-ai/Llama-3.2-1B-Instruct-abliterated
|
84 |
-
- model: xdrshjr/llama3.2_1b_uncensored_5000_8epoch_lora
|
85 |
-
- model: cognitivecomputations/Dolphin3.0-Llama3.2-1B
|
86 |
-
- model: Nexesenex/Llama_3.2_1b_SunOrca_V1
|
87 |
-
merge_method: model_stock
|
88 |
-
base_model: bunnycore/FuseChat-3.2-1B-Creative-RP
|
89 |
-
dtype: bfloat16
|
90 |
-
parameters:
|
91 |
-
t: [0, 0.5, 1, 0.5, 0]
|
92 |
-
```
|
|
|
22 |
- AiAF/Pretrained-SCP-1B-QLoRA
|
23 |
library_name: transformers
|
24 |
tags:
|
25 |
+
- transformers
|
26 |
- mergekit
|
27 |
- merge
|
28 |
+
- 1b
|
29 |
+
- rp
|
30 |
+
- 4-bit
|
31 |
+
- nsfw
|
32 |
+
- roleplay
|
33 |
+
- español
|
34 |
|
35 |
---
|
36 |
+
# Mezcla
|
37 |
|
38 |
+
Esta mezcla de modelos pre-entrenados fue creado usando [mergekit](https://github.com/cg123/mergekit).
|
39 |
|
40 |
+
## Detalle de la Mezcla
|
|
|
41 |
|
42 |
+
"Blast Processing" es una variante innovadora del modelo Llama3.2-1B, diseñado para ofrecer un rendimiento explosivamente rápido y eficiente en tareas de generación y comprensión de lenguaje. Inspirado en la idea de “procesamiento a todo gas” y en los avances tecnológicos que permiten manejar enormes cantidades de datos a alta velocidad, este modelo fue **creado a partir de la fusión de 20 Modelos** *(los mejores que encontré hasta el momento)*, técnicas de compresión avanzada y optimizaciones de hardware para brindar respuestas en tiempo récord haciendo uso de poca memoria RAM, sin sacrificar la calidad o la coherencia del output.
|
43 |
|
44 |
+
**Entre sus características distintivas se destacan:**
|
45 |
|
46 |
+
- **Velocidad excepcional:** Gracias a optimizaciones en la arquitectura y técnicas de cuantización, "Blast Processing" maximiza el uso del hardware, permitiendo una generación de tokens muy rápida, ideal para aplicaciones en tiempo real.
|
47 |
+
- **Eficiencia en recursos:** Su diseño ligero lo hace apto para dispositivos móviles y entornos con recursos limitados, sin perder la capacidad de procesamiento que se espera de modelos de última generación.
|
48 |
+
- **Rendimiento robusto:** Mantiene la calidad y precisión en tareas de lenguaje natural, al integrar refinamientos en el entrenamiento que refuerzan su coherencia y consistencia, incluso en escenarios de alta demanda.
|
49 |
+
- **Versatilidad multimodal:** Además de trabajar con texto, este modelo puede integrarse en aplicaciones que requieran procesamiento de imágenes, haciendo uso de adaptadores que permiten la fusión de información visual y textual.
|
50 |
+
|
51 |
+
Con "Blast Processing", no solo se apuesta por la **potencia bruta en velocidad**, sino también por una experiencia de usuario más dinámica y fluida, abriendo paso a nuevas aplicaciones en áreas como asistentes virtuales, análisis de datos en tiempo real y sistemas interactivos **para dispositivos móviles.**
|
52 |
+
|
53 |
+
Esta denominación evoca una imagen de tecnología de alto rendimiento, lista para "despegar" en cualquier escenario donde la rapidez y la eficiencia sean esenciales, haciendo honor al legado de la innovación en IA y procesamiento de datos.
|
54 |
+
|
55 |
+
### Método de Mezcla
|
56 |
+
|
57 |
+
Este modelo fue mezclado usando el método de mezcla [Model Stock](https://arxiv.org/abs/2403.19522) usando el modelo [bunnycore/FuseChat-3.2-1B-Creative-RP](https://huggingface.co/bunnycore/FuseChat-3.2-1B-Creative-RP) como base.
|
58 |
+
|
59 |
+
### Modelos Mezclados
|
60 |
+
|
61 |
+
Los siguientes modelos fueron incluídos en la mezcla:
|
62 |
* [danieliuspodb/llama-3.2-1b-extremist4](https://huggingface.co/danieliuspodb/llama-3.2-1b-extremist4)
|
63 |
* [huihui-ai/Llama-3.2-1B-Instruct-abliterated](https://huggingface.co/huihui-ai/Llama-3.2-1B-Instruct-abliterated)
|
64 |
* [UUFO-Aigis/Magnum-1b-v1](https://huggingface.co/UUFO-Aigis/Magnum-1b-v1)
|
|
|
77 |
* [Nexesenex/Llama_3.2_1b_SunOrca_V1](https://huggingface.co/Nexesenex/Llama_3.2_1b_SunOrca_V1)
|
78 |
* [NickyNicky/Llama-1B-GRPO_Final](https://huggingface.co/NickyNicky/Llama-1B-GRPO_Final)
|
79 |
* [DeepAutoAI/Explore_Llama-3.2-1B-Inst_v1.1](https://huggingface.co/DeepAutoAI/Explore_Llama-3.2-1B-Inst_v1.1)
|
80 |
+
* [AiAF/Pretrained-SCP-1B-QLoRA](https://huggingface.co/AiAF/Pretrained-SCP-1B-QLoRA)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|