关于Agent的一些思考_240429
何需足量革,尽覆此大地,片革垫靴底,即同覆大地。 -- 寂天《入行论》
最近看了一些 LLM 实测报告,感觉 LLM 的能力很强大,但在当前阶段,仍然只能对单一简单问题进行一次提问(详见:开源项目_大海捞针测试),对于复杂的问题,可以通过将其拆解为多个简单问题,使用 LLM 进行多步问答来解决。因此,引入了 Agent。目前也临着在对话过程中容易偏离主题的问题(详见:论文阅读_多Agent_股票操作示例)。
猜想大模型的尽头并非某个全能的大模型,而是类似于人的存在,可能是面向 Agent 优化的大模型;或者整体系统由多个大模型组成,其中一个充当主控:
- 这个主控模型并不大,所以反应速度快。
- 他并不存储所有的知识,但包含:内在信念(详见:论文阅读_语言与决策_通过LENS看人类行为),基本的常识,语言理解能力,基础推理能力,类似于高中生的水平。
- 他链接到一个外挂记忆系统,该系统存储客观知识和主观总结,以及长短期记忆,支持存储/搜索(详见:文章阅读_Agent记忆机制综述)。
- 他还包含一个自我进化系统,该系统能记忆、总结,并推动自已更新能力库。
- 和当前系统很大差别在于它能自主构建自己的知识和信念体系。
All articles in this blog are licensed under CC BY-NC-SA 4.0 unless stating additionally.