上下文窗口是模型单次处理的最大token容量,长对话记忆需动态维护并智能裁剪历史对话以适配该限制。关键在精准保留system指令、合并闲聊、摘要推理过程,并借助工具链与tiktoken校验实现高效管理。

什么是上下文窗口与长对话记忆
大模型本身没有“记忆”,每次请求都是独立的。所谓长对话记忆,本质是把历史对话内容作为输入的一部分传给模型——也就是维护一个动态更新的上下文(context)。这个上下文不能无限增长,受限于模型的最大上下文长度(如Qwen-72B支持32K token,Llama3-8B约8K)。超过限制就会截断或报错,所以关键不是“存得多”,而是“留得准”。
手动管理对话历史的实用方法
最直接的方式是用列表累积每轮用户输入和模型回复,再拼成符合格式的prompt。例如:
- 初始化:
history = [] - 用户说“今天天气怎么样?”,调用模型后得到回复,追加:
history.append({"role": "user", "content": "今天天气怎么样?"})和history.append({"role": "assistant", "content": "晴朗,适合外出。"}) - 下一轮前,检查总token数(可用
tiktoken估算),超限时从开头删老消息(优先删system或早期user-assistant对)
智能截断:保留关键信息而非简单砍头
粗暴删最早几轮会丢失重要设定(比如“你叫小智,用中文回答,不讲方言”)。更合理的方式是:
- 始终保留第一条
system消息(角色/格式/任务约束) - 合并连续多轮无关紧要的闲聊(如“你好”→“你好呀”→“吃饭了吗?”),压缩为一句摘要:“用户打招呼并询问日常情况”
- 对长文档问答类对话,只保留问题+对应答案的核心片段,删掉中间推理过程(除非用户明确要求展示思路)
借助工具链降低实现成本
不用从零写token统计和裁剪逻辑。推荐两个轻量方案:
立即学习“Python免费学习笔记(深入)”;










