level 6
阿斯顿马文明
楼主
针对DeepSeek官方软件日常聊天的娱乐性讨论,听说轻量版v4模型概念,是节省算力,用更小的资源消耗,完成以前的事情
而最近根据一则消息提出假说,往常版本火力全开类似(所有预设资源都默认启动)[导致多无效资源损耗,如两个不相干的模块,另一个不需要的模块也在加载]
而轻量版默认全部关闭,根据你的提问开启,给你精准匹配资源[缺点:因资源分配普遍概括性,导致部分模块未开启,或者权重较低,出现一系列文本问题]
那么如果DeepSeek[无法精准化自动分配资源,导致所需权重降低]
已知这次版本,上下文极限更新到了1m≈70万字,那么是否能给AI设定多重身份,让他每次输出都自我检索,增加对应模块权重后,在输出正文
类似预设里的六视推理[逻辑,个性,文风...],在思考层面展开[思不思考无所谓,能思考更好,但核心目的是用多重专家提示词身份,增加对应模块权重,在于激活],随后在让他输出正文。
目前只是有这个想法,毕竟免费版白给的1m上下文,现在这一坨屎,总给看看有没有解决办法





2026年03月13日 12点03分
1
而最近根据一则消息提出假说,往常版本火力全开类似(所有预设资源都默认启动)[导致多无效资源损耗,如两个不相干的模块,另一个不需要的模块也在加载]
而轻量版默认全部关闭,根据你的提问开启,给你精准匹配资源[缺点:因资源分配普遍概括性,导致部分模块未开启,或者权重较低,出现一系列文本问题]
那么如果DeepSeek[无法精准化自动分配资源,导致所需权重降低]
已知这次版本,上下文极限更新到了1m≈70万字,那么是否能给AI设定多重身份,让他每次输出都自我检索,增加对应模块权重后,在输出正文
类似预设里的六视推理[逻辑,个性,文风...],在思考层面展开[思不思考无所谓,能思考更好,但核心目的是用多重专家提示词身份,增加对应模块权重,在于激活],随后在让他输出正文。
目前只是有这个想法,毕竟免费版白给的1m上下文,现在这一坨屎,总给看看有没有解决办法




