1
collen OP 还有一个项目是导入历史数据清洗画像的,属于子项目,但是如果大家有大量编程历史对话的话,会消耗很多 token ,建议让 AI 清一下数据库数据,如果是用 LLM key 的话请注意费用,当然如果不想要历史数据也可以从 0 开始慢慢养,会在数据库存你的数据,聊越多,越清晰
|
2
lyhiving 2 月 25 日
支持一下,主要是怕 token 破天
|
3
collen OP 本地模型也可以跑,只是会根据模型大小从而准确率改变而已,本质是记忆算法,模型和 agnet 和 mcp 都只是方便大家拓展而已,我自己从 23 年到 26 年的聊天数据 1 万多条本地要跑 8 天,open 调用就跑了 2 天,国内的可以用更便宜的 deepseek ,而且历史记忆不重要,历史记忆只是过去,没有执行聊天算法,可信度低
|
4
me007 2 月 25 日
这么草率的 1.0 啊,我认为的 ver: 1.* 是完整可上生产环境的那种。毕竟 0 到 1,是量变到质变,进行中到成功完成的转变。
|
5
liangmishi 2 月 25 日 via iPhone
支持,确实,我每次都要让 AI 去读一下我的个人档案,每次觉得重要的都让 AI 梳理并更新档案,麻烦得很。只是,我觉得如果是 sqlite 会不会对新手友好一点,而且,简单加个密,因为这里面有太多不能被泄露个人缺陷或者弱点啦
|