表现:1000+行超长Prompt,模型经常“忘记”关键指令
原因:模型注意力机制的限制,过长的Prompt导致关键信息被淹没
解决方案:
实战案例:将超长Prompt拆分为多个聚焦的小Prompt,每个控制在300-500行以内
表现:Agent“忘记”用户之前的诉求,重复提问,用户体验差
原因:依赖LLM从历史对话中推断状态,但LLM不擅长状态管理
解决方案:
实战案例:在每个Agent的Prompt开头添加“## 当前状态”部分
表现:相似意图经常混淆,如“为什么限制我的支付?”被误判为其他意图
原因:边界规则描述不清晰,缺少边界case的示例
解决方案: