最近对 Gemma 4 感兴趣,发现一个问题:模型版本太多了( E2B 、E4B 、26B MoE 、31B Dense ), 每个对硬件要求都不一样,看群里经常有人问"我这个配置能不能跑 xx 模型"。
自己踩了一圈坑之后,把经验整理成了一个小工具:
→ 自动检测你的 GPU ( WebGPU/WebGL ,不需要装任何东西) → 根据你的硬件推荐最合适的模型 + 量化方案 → 直接给 Ollama / llama.cpp / Transformers 的运行命令 → Mac 、Windows 、Linux 、手机都覆盖了
地址: https://www.gemmamatch.com
纯前端,没有后端,不收集任何数据。
目前数据主要是从 r/LocalLLaMA 和社区 benchmark 整理的, 肯定有不准的地方,特别是:
如果各位跑过 Gemma 4 ,欢迎反馈下实际体验, 我可以把数据补进去,让推荐更准一些。