--- base_model: unsloth/gemma-3-4b-it-unsloth-bnb-4bit tags: - text-generation-inference - transformers - unsloth - gemma3 license: apache-2.0 language: - en --- 그.. 대충 해명을 하자면, 이런 vllm 모델은 처음 GRPO로 파인튜닝하는데, 왜인진 모르겠으나 이미지 인식하는 부분이 gguf로 변환하니까 안되네요. 근데 Q4_K_M으로 양자화 해놔도 한국어를 매우 잘 구사합니다. 대충 Q4_K_M 기준 vram 4.3GB 쓰네요. 대충 GGUF로 만들어 뒀으니 프롬프팅해서 쓰십쇼 # Uploaded finetuned model - **Developed by:** kenonix - **License:** apache-2.0 - **Finetuned from model :** unsloth/gemma-3-4b-it-unsloth-bnb-4bit This gemma3 model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [](https://github.com/unslothai/unsloth)