V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
Daybyedream
V2EX  ›  Local LLM

无 GPU 服务器部署小模型框架求推荐(需兼容 Kafka 数据流)

  •  
  •   Daybyedream · Mar 20, 2025 · 1482 views
    This topic created in 413 days ago, the information mentioned may be changed or developed.

    领导要求将大模型部署到无 GPU 的机房服务器,模型规模为个位数 B (如 7B ),后续会处理输出过来的信息。 领导明确不要 Ollama ,用啥部署呢?求推荐

    4 replies    2025-03-26 00:48:20 +08:00
    NoahBishop
        1
    NoahBishop  
       Mar 22, 2025 via Android
    你要不看看 llama.cpp ,自己写个兼容的吧。
    coefu
        2
    coefu  
       Mar 25, 2025
    鸟领导很难伺候啊,就这硬件成本还挑三拣四,能搞出来就不错了。
    coefu
        3
    coefu  
       Mar 25, 2025
    老弟你运气不错,刚才我搜了下方案,还真被我找到了。
    https://github.com/intel/ipex-llm/blob/main/docs/mddocs/DockerGuides/vllm_cpu_docker_quickstart.md
    Daybyedream
        4
    Daybyedream  
    OP
       Mar 26, 2025
    @coefuqin 专业!我前两天沟通过了最后搭了 ollama+dify
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   1124 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 42ms · UTC 17:58 · PVG 01:58 · LAX 10:58 · JFK 13:58
    ♥ Do have faith in what you're doing.