V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  llama3
songray 本地跑大模型代码助手还挺好用
Local LLM  •  songray  •  2024 年 9 月 24 日  •  最后回复来自 tabc2tgacd
6
v2v22222 Orin NX 16G 可以运行 llama3 大模型
NVIDIA  •  v2v22222  •  2024 年 6 月 11 日
CoffeeLeak 折腾 Llama3 跑在 NAS...结果确实一言难尽
Local LLM  •  CoffeeLeak  •  2024 年 5 月 4 日  •  最后回复来自 lchynn
6
lizhisty 大哥们,有没有 llama3 70b 的中转 API
OpenAI  •  lizhisty  •  2024 年 5 月 22 日  •  最后回复来自 wisej
7
ProxyXAI 体验 llama3 系列的速度吧
OpenAI  •  ProxyXAI  •  2024 年 4 月 25 日  •  最后回复来自 deorth
29
xingfukuaile 部署了一个 Llama3 [8B 和 70B] 欢迎来尝试
  •  1   
    分享创造  •  xingfukuaile  •  2024 年 7 月 20 日  •  最后回复来自 daisyfloor
    34
    Gorvens Meta Llama 3 可以在线体验了
    OpenAI  •  Gorvens  •  2024 年 4 月 23 日  •  最后回复来自 aptupdate
    2
    devlnt llama3 在 m3max 和 4090 推理速度
    分享发现  •  devlnt  •  2024 年 4 月 22 日  •  最后回复来自 fcten
    1
    huiwancode 最强大的开源 LLM 模型 LLama3 来了!
    程序员  •  huiwancode  •  2024 年 7 月 29 日  •  最后回复来自 kangfenmao
    11
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1196 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 30ms · UTC 18:16 · PVG 02:16 · LAX 11:16 · JFK 14:16
    ♥ Do have faith in what you're doing.