V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
sheller
V2EX  ›  Local LLM

Mac 上有哪些适合本地运行的 llm 呢

  •  
  •   sheller · Apr 1, 2024 · 1983 views
    This topic created in 756 days ago, the information mentioned may be changed or developed.

    用的是 LM studio ,模型 qwen1.5 、mistral 7b 、gemma 2b 都很流畅,但是想使用 gemma 7b 的时候几乎不可用,CPU 超过 100%,RAM 超过 20GB 。

    机器配置:M1 MAX ,32GB

    想问下大家,这个配置适合本地运行的模型还有哪些呢?主要用于日常 chat 和总结笔记时使用。

    4 replies    2024-04-01 19:28:57 +08:00
    mumbler
        1
    mumbler  
       Apr 1, 2024   ❤️ 3
    本地 LLM 不太适合总结这类任务,因为当前 cpu 推理,prompt 评估时间很长,通俗的说,本地 LLM 阅读 prompt 的速度大约只是生成速度的 2 倍,而 GPU 跑 LLM 可以秒读长 prompt ,GPT4 阅读速度可以达到 2800token/s 。

    intel ,amd ,apple 现在都在发力 AI PC ,CPU 推理后面应该会得到优化
    sheller
        2
    sheller  
    OP
       Apr 1, 2024
    @mumbler 感谢解答,看来还是只能用在线的
    SuperMari0
        3
    SuperMari0  
       Apr 1, 2024
    最近在 M2 Mac Mini 上用 ollama 跑的 Qwen-7B 效果还不错, 可以尝试下
    sheller
        4
    sheller  
    OP
       Apr 1, 2024
    @SuperMari0 我也有在用 qwen1_5-7b-chat-q5_k_m.gguf ,总结 obsidian 里的笔记(插件是 copilot )还不错
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   5863 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 29ms · UTC 06:04 · PVG 14:04 · LAX 23:04 · JFK 02:04
    ♥ Do have faith in what you're doing.