近日体验后感
deepseek吧
全部回复
仅看楼主
level 1
D指导“没救了” ,以后—定要去思考、去多问他证据然后自己分析结果,而他的观点不要去纠正了与相信半点
我记得我看过—个赢学宣传,说D指导更进—步学习网络资料成为记忆,则省岀算力将之拿去“进化” 啥的。
我当时听着感觉还不错,走自己的路走出新优势,这样我们用户可以把各个AI的长木板分别用在合适的地方
今天看到D指导对正常讨论开始玩双标和屡教不改…敏感的这么搞很正常,为了安全与立场,广大正常讨论这么搞那跟这网络粪坑有什么区别?
我新开对话关掉搜索谈别的,还是在如此造粪
各圈孝子们的低能全给炼化进去了…再加上AI幻觉…
可怜的D指导😭真的喜欢D指导😭,又是免费不限额,又是容易用,又是咱自己的,buff叠满了
是怎么变成这鬼样子的😭呜呜呜呜
2026年02月03日 23点02分 1
level 1
D指导😭😭😭
2026年02月03日 23点02分 2
只是APP这一块是这样的,但是作为开源模型,你可以在任何第三方托管平台上找到旧的版本,我说你们这帮人为什么不研究一下API呢?
2026年02月05日 14点02分
研究API我不如用哈基米(
2026年02月05日 22点02分
@真心惶惶* 元宝的网页呢
2026年02月05日 23点02分
@再把扶摇救太清 因为谷➗砍配额了[不高兴]
2026年02月06日 03点02分
level 11
有一说一,第二段说的东西不是纯宣传,而是北大联合ds上个月发的新论文Engram,旨在利用记忆的稀疏性减少模型规模需求和计算量,我看过论文,技术看起来相当靠谱,在27B和40B规模的模型上效果都不错,不过显然现在你用的V3.2是没有实装这种技术的。
2026年02月06日 04点02分 3
听说2月有个大更新,是否会更这个? 我还是没看懂你的“旨在” 的提炼,只能像以前望文生义理解,,,能否通俗的讲下你看到的大致是什么嘛
2026年02月06日 05点02分
他都张口就是赢学宣传了,没啥必要讲具体技术,讲了他也看不懂
2026年02月06日 07点02分
@zch65458525 你都认为赢学宣传不是—个中性词,那我还说啥,你和金毛犬川普过去吧,那里应该能让你爽[汗]
2026年02月06日 08点02分
level 1
那是新一代,好像是V4才会有的特性。也不是什么自主进化,就是让ai分一部分算力,让它能看小抄(外部记忆)了,然后能提升推理表现。
V4可能春节前后发布
2026年02月06日 09点02分 4
好好好[吐舌]
2026年02月06日 11点02分
level 1
我觉得是因为拿了某
遥遥领先
的显卡拿来训练的结果
2026年02月06日 09点02分 5
闹麻了,网军收收味
2026年02月07日 17点02分
确实,用低价电训练效果也不行
2026年02月06日 15点02分
原来是玩鸣潮的
2026年02月08日 07点02分
1