V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
V2EX  ›  zh3256  ›  全部回复第 7 页 / 共 22 页
回复总数  437
1 ... 3  4  5  6  7  8  9  10  11  12 ... 22  
2025 年 6 月 1 日
回复了 LiJavaT 创建的主题 Java 异步架构的设计困惑
消息队列仅作为中间件, 实际的调度, 资源分配, 流量控制在应用层做.
@ClaudeAi
别人说你的时候, 你这么说: 你拉黑不就行了?
那我说你的时候, 你却说一堆道理, 拉黑我不就行了? 双标怪
@ClaudeAi 到处看见你的垃圾机器人截图,做的真垃圾。
2025 年 6 月 1 日
回复了 ljlljl0 创建的主题 分享创造 MCP 开发给运维带来的机会
运维不太可能,出于安全和稳定性,目前的 mcp 都不能胜任。
base64 不算什么,曾经有表演艺术家留了 md5
https://www.v2ex.com/t/937283
请问 op 平时饮食味道咋样,会觉得不好吃吗,或者有没有什么味道和能量比较平衡的推荐,感谢
2025 年 5 月 29 日
回复了 KingCoding 创建的主题 程序员 求助:大模型如何处理大量工单数据
@KingCoding 用大模型跑数据反而是少量多次更好,相比较模型生成内容的时间,中间的网络消耗可以忽略不计。
影响模型算力的消耗最直接的因素是你上下文的长度,假设你 8k 的上下文能跑 50 并发,16k 上下文可能 20 都没有。之所以你需要等这么久也是因为上下文比较长。
另外我突然想到一件事,你们为啥要自己部署呢,打线上有些 mini 模型跑个 1w 条不要钱一样。
2025 年 5 月 29 日
回复了 beyondstars 创建的主题 编程 编程真无聊啊
编程很有意思!
只是你的工作无聊,典型的拉不出屎怪地心引力。
2025 年 5 月 29 日
回复了 KingCoding 创建的主题 程序员 求助:大模型如何处理大量工单数据
如果大前提是一定要用大模型
不是特别明白为什么要批量请求,每个工单请求一次,做一些分析,分析结果做成结构化的数据保存起来。这样即使工单再多处理完也只是时间问题。不得不使用批量请求的原因是什么呢
直接把短信全屏蔽,收验证码的时候到拦截里面捞一下。
2025 年 5 月 28 日
回复了 laijh 创建的主题 职场话题 失业后,也许我们可以继续干,简单列列
@laijh 按照这么算,为什么不做一千个小程序呢,就有 300w 的收入了
2025 年 5 月 23 日
回复了 leegoo 创建的主题 分享发现 兄弟们,Claude4 发布了 ,赶紧冲
怎么的,AI 的天又又又要变了?(狗头
2025 年 5 月 22 日
回复了 linxin4cs 创建的主题 职场话题 (急)offer 二选一,求各位前辈给点建议
如果只有两个选 1
第二家公司有几个点扣分:
1. 绩效工资
2. 做的东西没啥技术含量
3. 不成体系,你学不到行业经验
调薪,年终什么的听听就算了,每个月到手的才是王道。
用公司的,尽量工作和生活隔离开。
2025 年 5 月 21 日
回复了 life90 创建的主题 剧集 推荐一部正常恋爱过程的电视剧
动漫可以吗,《月色真美》
2025 年 5 月 16 日
回复了 yitwotre 创建的主题 Python 怎么学 Python +AI
谜底就在谜面上,找一个生活中的小工具,然后用 AI 配合开发出来。
1 ... 3  4  5  6  7  8  9  10  11  12 ... 22  
About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   5270 Online   Highest 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 41ms · UTC 09:45 · PVG 17:45 · LAX 02:45 · JFK 05:45
♥ Do have faith in what you're doing.