| 本地跑大模型代码助手还挺好用 Local LLM • songray • 2024 年 9 月 24 日 • 最后回复来自 tabc2tgacd | 6 |
| Orin NX 16G 可以运行 llama3 大模型 NVIDIA • v2v22222 • 2024 年 6 月 11 日 |
| 有人用 4070、4060 显卡的笔记本测试过跑 llama3,问问题,或者读取文档做总结,需要多长时间吗? 程序员 • godqueue • 2024 年 5 月 27 日 • 最后回复来自 Charon2050 | 31 |
| 想整台 macbook pro 跑 llama3 70b,请问用啥配置合适? M3 max 128G? MacBook Pro • idblife • 2024 年 5 月 22 日 • 最后回复来自 wsbqdyhm | 19 |
| 我弄了个网站,免费的,本地运行模型 Llama3 模型,发散性思维助力程序开发 CodeCopilot AI 分享发现 • sensechat • 2024 年 5 月 7 日 • 最后回复来自 coolfan | 2 |
| 折腾 Llama3 跑在 NAS...结果确实一言难尽 Local LLM • CoffeeLeak • 2024 年 5 月 4 日 • 最后回复来自 lchynn | 6 |
| 使用 llama3:70b 本地化部署, 100 人左右的并发,大概需要多少块 4090 才能满足? Local LLM • leeum • 2024 年 7 月 9 日 • 最后回复来自 keakon | 52 |
| 大哥们,有没有 llama3 70b 的中转 API OpenAI • lizhisty • 2024 年 5 月 22 日 • 最后回复来自 wisej | 7 |
| 还没用上 Llama3? 一条命令集成到你的应用! 分享创造 • Jianzs • 2024 年 4 月 25 日 |
| 体验 llama3 系列的速度吧 OpenAI • ProxyXAI • 2024 年 4 月 25 日 • 最后回复来自 deorth | 29 |
| 部署了一个 Llama3 [8B 和 70B] 欢迎来尝试
1 分享创造 • xingfukuaile • 2024 年 7 月 20 日 • 最后回复来自 daisyfloor
|
34 |
| Meta Llama 3 可以在线体验了 OpenAI • Gorvens • 2024 年 4 月 23 日 • 最后回复来自 aptupdate | 2 |
| llama3 在 m3max 和 4090 推理速度 分享发现 • devlnt • 2024 年 4 月 22 日 • 最后回复来自 fcten | 1 |
| 大家试过 Meta 新开源的 Llama3-70b 大模型了吗,快是真快,但感觉不如 GPT-4 稳
1 推广 • DataPipe • 2024 年 4 月 23 日 • 最后回复来自 DataPipe
|
8 |
| 最强大的开源 LLM 模型 LLama3 来了! 程序员 • huiwancode • 2024 年 7 月 29 日 • 最后回复来自 kangfenmao | 11 |
| 最强开源大模型 Llama 3 王者归来!最大 4000 亿参数!挑战 GPT-4! 分享发现 • spoock1024 • 2024 年 7 月 29 日 • 最后回复来自 kangfenmao | 21 |