YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

Seed-OSS-36B-Instruct (MLX 8-bit)

模型简介

这是 ByteDance Seed-OSS-36B-Instruct 模型的 MLX 8bit 量化版本,专门优化用于 Apple Silicon 设备。

8-bit quantized version with balanced performance and quality

模型规格

  • 原始模型: ByteDance-Seed/Seed-OSS-36B-Instruct
  • 参数量: 36,151,104,512 (36.15B)
  • 量化: 8bit (group_size=64)
  • 文件大小: 35.8GB
  • 平台: Apple Silicon (M1/M2/M3/M4)
  • 框架: MLX

性能指标

指标 数值
加载时间 ~5-6秒
推理速度 ~15秒/50个token
内存占用 ~40GB
文件大小 35.8GB

使用方法

安装依赖

pip install mlx-lm

基本使用

import mlx_lm

# 加载模型
model, tokenizer = mlx_lm.load("JackRong/Seed-OSS-36B-Instruct-MLX-8bit")

# 生成文本
response = mlx_lm.generate(
    model, tokenizer,
    "Hello, how are you?",
    max_tokens=200
)
print(response)

高级配置

response = mlx_lm.generate(
    model, tokenizer,
    prompt="Explain quantum computing",
    max_tokens=500,
    temperature=0.7,
    top_p=0.9
)

系统要求

  • 硬件: Apple Silicon (M1/M2/M3/M4)
  • 内存: 至少32GB RAM (推荐64GB+)
  • 软件: macOS 12.0+
  • Python: 3.8+

兼容性

⚠️ 重要: 此MLX格式模型仅适用于Apple Silicon设备。

如果您需要在其他平台使用,请考虑:

  • 使用原始的transformers格式: ByteDance-Seed/Seed-OSS-36B-Instruct
  • 或转换为其他量化格式 (GGUF, AWQ等)

下载统计

  • 总参数: 36,151,104,512
  • 量化参数: 8bit with group_size=64
  • 压缩率: ~50% (相比FP16)

许可证

遵循原始模型的许可证条款。

致谢

Downloads last month
1
Safetensors
Model size
36.2B params
Tensor type
BF16
·
U32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support