别人都2m上下文了,V4还不发布
deepseek吧
全部回复
仅看楼主
level 7
小c💤 楼主
2026年04月03日 08点04分 1
level 8
没辙,估计是多模态还没做出来
2026年04月03日 08点04分 2
level 7
grok这么吊
2026年04月03日 11点04分 3
level 2
真的假的,这么叼吗?
2026年04月03日 15点04分 4
level 1
grok4和4.1发布已经有一段时间了吧,很快就被另外三家压过风头了,fast版本优点是便宜速度较快,文本能力一般
2026年04月04日 12点04分 5
level 11
长上下文≠注意力足够
2026年04月04日 18点04分 6
楼主的问题不是v4还不发布吗?
2026年04月05日 02点04分
level 1
ds的公司不是搞量化的吗,ai就是顺带的
2026年04月04日 18点04分 7
@wocnibaba 应该是做空openai这类企业。开源的发展,算是把闭源短期的盈利空间砸沉了。
2026年04月05日 12点04分
本质炒股公司,发ds是为了做空英伟达[阴险]
2026年04月05日 05点04分
level 1
感觉上下文重要性没那么大,还是看注意力。
而且grok api这玩意,我记得计费方式按上下文加了阶梯,超过 256k还是多少费用会飙升。
2026年04月04日 18点04分 8
上下文和注意力相辅相成缺一不可,没有哪个不重要一说。
2026年04月05日 00点04分
level 8
llama:孩子们,我上下文10M,但注意力才4k[滑稽]
2026年04月04日 18点04分 9
哪里来的清朝老兵[太开心]
2026年04月05日 11点04分
level 1
再刷到这种没头脑的帖子就喊我去学习[不高兴]
2026年04月04日 19点04分 11
[阴险]
2026年04月05日 01点04分
level 6
这些所谓的上下文都假的一,光上下文长,注意力就那么点有p用
2026年04月04日 23点04分 12
level 6
没有注意力,再长的上下文都没用,能看完和能记住是两回事
2026年04月05日 01点04分 13
level 6
去年11月就开放2m 上下文窗口了,实际用注意力不如哈基米,grok
属于是
美帝自研易卸甲豆包
2026年04月05日 01点04分 14
有点辱豆包了,grok旗舰模型多模态没那么强
2026年04月05日 04点04分
没这么强。
2026年04月05日 22点04分
level 1
30k注意力有点少了
2026年04月05日 02点04分 15
level 9
在用华为的芯片调吧 用英伟达的话早出来了
2026年04月05日 02点04分 16
1 2 尾页