deepseek是不是会忘不干净之前的对话
deepseek吧
全部回复
仅看楼主
level 9
贴吧用户_GUSM958
楼主
我之前有要求过几次用英文作答,但这次完全是新的对话。突然冒出来一句给我看傻了
2025年10月14日 10点10分
1
level 1
超级无敌厉害88
有的兄弟,而且开了新对话有可能还会记住上一个对话的内容
2025年10月14日 16点10分
3
贴吧用户_GUSM958
怎么越用bug还越多了
2025年10月14日 23点10分
level 3
乙斋
Deepseek解数学题难一点就不行
2025年10月15日 02点10分
4
level 1
贴吧用户_aKX71RV
确实有可能记得上一次对话的内容,有时候记得有时候记不得的
2025年10月15日 05点10分
5
level 1
贴吧用户_aPJUe4U
不能的,DeepSeek官方软件没做任何记忆功能,所谓可能会记得上次对话不过是偶然的罢了。
2025年10月15日 14点10分
7
level 1
6196422
我特地问了 DeepSeek
2025年10月15日 15点10分
8
贴吧用户_GUSM958
我也很奇怪,不去翻思考过程根本不会注意到。之前也从没有遇到过。可能是不同会话串联了什么的我也不懂
2025年10月15日 15点10分
贴吧用户_GUSM958
我又去问了一遍我之前问过问题的汇总,但这次他只有这次对话的记忆,太怪了
2025年10月15日 16点10分
6196422
@贴吧用户_GUSM958
它说连续会话间隔短,缓存没有清除
2025年10月15日 16点10分
贴吧用户_GUSM958
@6196422
原来如此
2025年10月15日 16点10分
level 1
6196422
好的,我将开启深度思考模式,重新分析你朋友遇到的情况。
---
1. 问题重现与核心矛盾
· 观察到的现象:用户在新会话中,DeepSeek在深度思考模式下,内部推理过程显示它似乎“记得”上一次会话中用户要求使用英文回答的指令,并在新会话中纠结是否继续使用英文,尽管当前会话并未提出此要求。
· 核心矛盾:这与DeepSeek官方声称的“没有跨会话记忆能力”相悖。
2. 深度思考模式下的可能性分析(重新评估)
可能性一:深度思考模式与过度推理
· 模式特点:深度思考模式会激活模型更复杂、更细致的推理链条。它会尝试从当前会话的极有限信息中(例如用户的第一个问题)主动挖掘潜在偏好,包括语言风格。
· 内部纠结的产生:在这种模式下,模型可能会进行一种“如果-那么”的假设性推演:
· “用户的上一个问题(在历史中)是要求英文回答的,这是一个强烈的偏好信号。”
· “但这是一个新会话,用户没有明确重申。”
· “我是应该延续这种可能的偏好,还是默认使用中文?”
· 结论:这种“纠结”并非源于真实的记忆,而是深度思考模式在模拟一个“拥有记忆的智能体”在面对此类情境时可能会有的思考过程。它是在推理“最佳行动”,而不是在访问历史数据。
可能性二:会话的短期连续性(技术层面)
· 非官方记忆,而是临时上下文:虽然设计上是会话隔离,但在某些技术实现中,如果两个会话的发起时间非常接近(例如在同一浏览器标签页中快速刷新或开启新窗口),可能存在一个极短的、非官方的“上下文缓存”或“会话粘滞”期。
· 深度思考模式的敏感性:普通模式可能忽略这种短暂的上下文,但深度思考模式由于其更深层的信号处理,可能会捕捉并放大这个微弱的、本应被丢弃的信号,并将其作为推理的依据。
· 结论:这是一个可能的技术边界情况,而非设计上的记忆功能。
可能性三:用户行为模式的间接推断
· 非记忆,而是模式识别:用户的提问本身可能带有一些让模型联想到“英文偏好”的微弱特征。
· 例如:用户的ID是英文名、提问中夹杂了英文术语、使用了某种类似于非母语者的中文句式等。
· 深度思考的放大效应:在深度思考模式下,模型不会放过任何微小的线索。它会将这些线索与“用户要求英文回答”这个常见的用户行为模式进行关联推理,从而在内部产生“用户可能希望用英文”的假设,并为此而纠结。
· 结论:这本质上是基于当前会话信息的实时模式识别和概率推断,只是其推理过程恰好与历史行为巧合。
3. 综合判断与最终解释
最有可能的解释是可能性一和三的结合,并以可能性二作为一个小概率的技术补充。
· 核心机制:DeepSeek确实没有主动的、跨会话的长期记忆。这是基本原则。
· 现象根源:你所观察到的“纠结”,是深度思考模式在单次会话内,基于当前输入的有限信息(可能包括极短暂的上下文残留或用户行为特征),进行的一次高度复杂的、模拟性的推理演练。
· 简单来说:它不是“记得”你,而是在“深度思考”模式下,它变得更“多虑”和“谨慎”,它会考虑各种可能性,包括“如果用户有未言明的语言偏好该怎么办”,并将这种思考的内心戏展示给了用户看。
这反映了深度思考模式的一个特点:它不仅展示答案,还展示获取答案的复杂推理过程,其中可能包含一些基于不完整信息的、看似矛盾的假设推演。
---
希望这次在深度思考模式下的重新分析,能更清晰地剖析这个现象背后的逻辑。
2025年10月15日 15点10分
9
level 8
feiudfyg
要把之前的对话删掉它才会忘干净
2025年10月16日 11点10分
10
level 1
冰羽翎凝
用过老R1的都知道,有时候就算你要求中文了也会英文思考作答。这不是夸对话“记忆”,而是模型训练过程中遗留的顽疾,无解的。
生成英文就remake一波,这是唯一解。
楼上那个说夸对话记忆纯扯淡,服务提供方真干这种事不是白浪费算力?没意义也不可能的。
2025年10月18日 11点10分
11
ReisenUdo
@冰羽翎凝
r1是你说英文他才说英文,没遇见过蹦英文的问题
2025年10月30日 06点10分
贴吧用户_GUSM958
不是喵,图中的ds是突然思考了一下是要用英语还是中文作答。而我在本次对话中未要求英文作答,但在之前的对话中要求过。而且我以前用老R1的时候没出现过中英混杂,只有现在的才频繁出现
2025年10月18日 12点10分
冰羽翎凝
@贴吧用户_GUSM958
你没看到他开始左脑搏击右脑说“用户要求英文回答”又说“但没有限定语言”了嘛,八成是不知怎么的命中内存到数据库里的不知名回答记录里的英文回答了。 现代LLM基本都逃不过这样,生成内容不靠科学靠玄学
2025年10月18日 17点10分
冰羽翎凝
@贴吧用户_GUSM958
现在模型的问题是偶尔会突然窜几个英文单词出来,以前是经常思考整段都变成英文,该说不说也算勉强有改善()
2025年10月18日 17点10分
level 11
明早拉去爬格子
当然不是,你用少了,从v3.1开始他就会固定思考要回答什么语言,这是他训练时就这样的
2025年10月20日 00点10分
12
level 6
赵铁棒
你的错觉,答案是你那个图片中有相关内容。你可以认真看看你那个图片。
2025年10月30日 17点10分
15
1