V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  sillydaddy  ›  全部回复第 2 页 / 共 146 页
回复总数  2914
1  2  3  4  5  6  7  8  9  10 ... 146  
防不胜防啊。v 站前不久有人提醒过,但已经又失去警惕了。
6 天前
回复了 xqk111 创建的主题 程序员 说一下自己最近 ai 前端开发编程的感受
你说的「需要人去监督」,有一部分(我感觉是大部分),是可以委托给 AI 去做的:

我之前做一个简单的 gtd 系统,我每次添加完一个功能,都要想,下一步再加点啥,才能最小可用。后来我灵机一动,让 AI 自己去看一下还缺哪些最基本的功能,它一下子指出来了。

我经常遇到 AI 花很长时间,做完一个功能,然后潦草测试一下,就交卷了。这种潦草,不一定是故意的,有时候就是没注意到,其实人也一样,不可能每次改完功能都做完整的回归测试。

所以,启动另一个 AI 实例或对话自动检查,就可以大大增加这个过程的自动化程度。比如 v 站这个哥们做的全自动化: /t/1199391

对于你说的情况,比如说这样一些提示词,通过自动化检查,就可以免去很多人的精力:
“为达到可维护性,还需要进行哪些代码结构的改进”,
“检查一下新引入的功能可能会影响哪些之前的功能,从测试用例中选取重点测试一下这些功能”,
“检查一下,为实现基本可用,指定的功能中还有哪些功能未添加。”

当然上面的都是最简单的,我也在学习实践过程中。但毫无疑问,有了它意味着有了(半)自动化,效率是质的差距,

最终的目标就是,人要做到就是最少化自己的提示,目前你使用的单 Agent 的编程模式还远远够不上这个目标。

如何指挥多个 Agent 协作,应该是今年的主要趋势。除了看效果,还要考虑经济成本,如何分配不同能力和成本的大模型或 Agent ,以节省 token 费用。
6 天前
回复了 yarkyaonj 创建的主题 职场话题 网传猪场强推 AI、开始清理人员
现在听到“消息不实”这四个字都要生理反胃了!都 TMD 会学着官腔打这套机器人腔调了,没羞没臊脸不红气不喘。
感谢分享!

请问是迭代了 1500 次吗,input 和 cache create 总共才 70 多万。相当于每次 diff 只有差不多 1000 个新 token 提示词输入吗?

我设想中的这种迭代是多轮次的,每次迭代都重新启动一个 Claude Code 的对话 session 。看样子你是在一轮对话里面完成的吗?
应用层与基础模型层中间,应该还有一个 Agent 层吧,像持续学习、记忆机制、目标驱动、多 Agent 协作这些外挂在基础模型上的,而不是基础模型内化(端到端)的,是在你说的应用层吗?
8 天前
回复了 kenshinhu 创建的主题 OpenClaw OpenClaw 怎样实现調用 claude code 或 codex
同问。按理说这么长时间应该有方案吧。
9 天前
回复了 techdai 创建的主题 生活 来惠州玩了一趟,结果舍不得走了😌
2020 年刚来 v 站时,自由工作者的家园问就是惠州。
感谢楼主,在楼主这个项目激励下,我在本地安装了 OpenCode ,安装了 OpenClaw ,搞定了 Cursor CLI (我想把 Cursor CLI 接进去,因为有额度),还注册并使用了 OpenRouter 的免费 API (还没用付费 API ,付款也简单)。

把上面的工具弄的七七八八,也基本都接入到 golutra 了之后,现在我也开始面对到楼上提到的问题,怎么真正让 AI 协作起来。

目前我对 golutra 的认识就是,它把命令行的交互方式,换成类似人类的协作对话框式的了。但是对于如何组织蜂群 Agent ,我还没有形成很好的概念。看了下 golutra 的系统提示词,似乎还没有这方面的,是吗?
因为 AGI 让一切皆有可能,前提是你人要在场。
@moudy >“不过编译器生成的代码是相当确定的,而 ai 显然还没有到这个程度。”
不能这么类比吧。我上面#6 楼的回复,恰恰是把 AI 类比为人(下属),而不是编译器。

人或者 AI 做事,就是有固有的不确定性。给你一个下属,你也要接受他的不确定性,以及能否把事情做出来的不确定性,但这不影响你对他能力或可靠性的大概判断,对吧。而编译器的确定性,是因为它要处理的编程语言的语法是极其确定和有限的,不确定性为 0 。所以,不能拿编译器与 AI 类比。
我来打消你的疑虑:只需要设想你是一个老板。

你安排手下做事,有管财务的、有管人事的、有管销售的、有管技术研发的,这些领域,你不可能都门儿清,对吧?至少,一般的老板是不懂技术的。那么你怎么授权并信任这些人去做事呢?

1 是看结果。事物是因果驱动的,种善因结善果,没有金刚钻就做不了瓷器活。看 AI 执行的结果,就知道它的功力是不是足够。一个功力不足的 AI ,靠拆东墙补西墙的底层架构,是不能让结果持续满意的。反过来就是说,如果结果持续令你满意,那它的底层实现,大概率也会让你满意。如果你觉得等待结果失败的时间太长代价太大,那还有中间过程的监督和反馈。

2 是监督和反馈。纸里包不住火,管理不善总是会有蛛丝马迹泄漏出来。可以通过利益无关甚至利益冲突的其他人的监督,也可以收集更下层的反馈。对应到 vibe coding ,其他 AI 可以审查代码,你自己也可以亲自抽检其中的某个模块,让代码说话,让你更了解你使用的 AI 是个什么水平,从而只下放对应的权力给它。其实人们也一直是这么做的,在 2025 年末之后,很多人才改变了 vibe coding 的方式,全权放手让 AI 去做。
@lelelelelelele #50
“面向市场”是指你知道市场上的需求,并且满足这个需求,从中盈利。无论你是雇人、雇 AI 、还是找合作,这个是老板的职责。你从 AI 能习得这些技能吗? AI 缺少的恰恰就是实践和经验,那些从经验中得到的 groudtruth 。

我还是那句话,你可以考虑一下,从自身角度出发,看看你能转型到哪行当老板,去直接满足市场需求,并且挣到钱。需要多长时间去学习和实践,能达到打工的收入水平、稳定持久性。哪怕头脑风暴一下也可以。
看了项目简介,我对它的信任感,甚至比不上我对 AI vibe 出的代码。为啥?

这么长篇幅的介绍,没抓住重点,没介绍核心,那个让人一看就信服的东西:它输出的架构图、treemap 到底是什么?

唯一一个示例动画,还糊的像毛玻璃!
真的差别那么大吗,没有特别大的感觉,我的感觉反而是 gpt5.3codex 比较稳定可靠。我是在 cursor 内测试的。

下面的乘法题,gpt5.3codex 能做到,但 opus4.6 做不到(推理卡死、直接放弃改用 python )。都是用的最高推理能力。

```
你能不借助工具,心算一道乘法题吗?为保证准确性,你必须要一步一步计算。这里的一步一步是指无论加法还是乘法,都只取 1 位数字计算。也就是 1 位数乘以 1 位数,1 位数加 1 位数,无论是中间过程还是结果。

8346783724985839204724623 * 7827329472626174

```
1  2  3  4  5  6  7  8  9  10 ... 146  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1563 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 55ms · UTC 16:42 · PVG 00:42 · LAX 09:42 · JFK 12:42
♥ Do have faith in what you're doing.