1
sillydaddy 9 小时 47 分钟前
给 Agent 加上一个人格,再配上选举,齐活了。
不过,谁来决定给谁安排什么人格呢?是否要 Agent 之间通过竞争,看谁解决问题的能力强?但是为何解决问题能力强的,就可以被赋予某个人格(比如领导者)呢?还是需要一组底层的逻辑。 |
2
tftNExtLife OP @sillydaddy 那倒不用,同一事实的多个 agent 靠争抢与排它锁就行,主要是按照事实过滤而不是看 agent 谁强谁弱
|
3
charlie21 9 小时 21 分钟前 via Android
蚂蚁对蚁群负责 所以蚂蚁有良性自主意识
agent 的注意力是怎样的都是黑箱,agent 哪里比得过蚂蚁? |
4
tftNExtLife OP |
5
maolon 5 小时 49 分钟前
我觉得不是很妥,
1. 怎么算是事实? 观察,推断,需求,结果这些被塞在一起,agent 本身就很容易判断出错,一旦树的上层出现错误就会级联影响下层的结果 2. 虽然 agent 的编排基于事实自然生长看上去更优雅,但是没有解决复杂度的问题,只是把复杂度从谁命令谁变成了谁来定义事实,谁来做冲突解决,谁来撤回和重跑 3. llm 现在本身也不是为“事实治理”训练出来的,而是任务驱动的,基于事实治理的任务成功率存疑 4. 多 agent 至少目前不是版本答案,在很多问题 domain 里单 agent 系统( SAS ) ,效果并不差甚至是最优的选择,多 agent 一般在任务可拆解(上下文容易隔离),可探索,低耦合的任务上占优,所以也不是说什么任务都需要一个事实总线 5. 最后收敛条件是什么,谁来决定收敛(这也就是为什么 planner- excuter 被这么广泛的被使用的原因),没有这个系统会无限扩展下去 |
6
extrem 5 小时 39 分钟前
从第一性原理出发分析,我越来越感觉像管理人一样去管理 agent 是很不科学的,或者说 agent 本来就不存在,谈何管理?谈何协作?
现在 agent 应用本质上只是把上下文组装好发给 lm api ,可能在程序逻辑设计上需要“agent”这种抽象来辅助编码以及在日常便于讨论,但不代表任何场合任何时候都要将它作为第一优先级考虑的实体,否则就是本末倒置,容易陷入歧途 用类比的方式思考 agent 协作根本没意义,因为 agent 最核心部件:lm 接口能否按预期工作根本不取决于这些看似精巧的无关设计 |