Gemma-4-E4B-it bf16 MLX (Audio Supported / Fixed)

本模型是将官方原版 google/gemma-4-e4b-it 转换为 Apple Silicon (Mac) 专用的 MLX 格式的 bf16 版本(非量化,保持原始精度)。

该模型由 mlx-vlm 版本 0.5.0 转换生成,使用 bfloat16 存储权重。有关模型的架构、训练数据和预设能力的更多详细信息,请参阅原始模型卡

This model is a bf16 (non-quantized) MLX version of the original google/gemma-4-e4b-it, optimized for Apple Silicon Macs. It was converted using mlx-vlm version 0.5.0 and weights are stored in bfloat16 format. For more details about the model architecture and training data, please refer to the original model card.

🌟 此版本的特别说明 (Important Fixes)

早期的 mlx-vlm 版本(如 0.4.x)在转换 Gemma 4 时,存在破坏音频塔(Audio Tower)权重以及丢失 feature_extractor 的 Bug,导致模型在处理音频时出现“失聪”或无限输出网址乱码(如 123456...)的问题。

本仓库的权重使用了最新的 mlx-vlm v0.5.0 重新转换为 bf16 格式,完美跳过了音频塔的损坏,保留了无损的音频特征提取能力! 现在你可以直接在 Mac 上以 bf16 精度极速运行 Gemma 4 的原生语音识别(ASR)和音频对话功能。

💻 安装与依赖 (Requirements)

请确保你安装了最新版的 mlx-vlm(需要包含音频修复补丁):

pip install -U "mlx-vlm>=0.5.0" transformers
Downloads last month
266
Safetensors
Model size
8B params
Tensor type
BF16
·
MLX
Hardware compatibility
Log In to add your hardware

Quantized

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support