🌈最爱打脸酱🍭 最爱打脸酱
ballball度娘做个人吧
关注数: 42 粉丝数: 53 发帖数: 5,145 关注贴吧数: 49
下个文明阶段的大系统组织范式 随着后现代主义的快速泛滥,传统的依赖相信虚拟故事也即宏大叙事组织大系统的范式逐渐被解构,新的大系统组织范式呼之欲出。 我在之前的一篇帖子里讨论过保守主义和自由主义的特点和作用,总的来讲就是一对拮抗倾向,这对拮抗倾向是自然演化出来的用来在组织系统内筛选dna序列结构的。在明确了大系统组织结构的建构力量和解构力量的核心驱动力后,再来讨论如何进行下个文明阶段的大系统组织。 后现代主义寻求解构一切的绝对自由以达到极致爽感,这是一种明显的自毁倾向,形成这种自毁倾向的核心驱动力就是既有社会系统本身充满大量根本性矛盾,这使得高敏感群体在高度信息化的时代无法在颅内调和这种矛盾也即所谓的形成多套言行体系,时间久了之后大脑放弃挣扎转而寻求毁灭一切来实现矛盾或者说扭曲的彻底消灭。 如何进行下个文明阶段的大系统组织呢?从根本上来说就是要消除系统的根本性矛盾,这点在信息化时代以前是无法做到的,因为人脑没有处理如此庞大又复杂的信息的能力,人们也没有收集足够信息的能力,最多只能通过市场化来做一定的调节,但是人们的价值评估能力有限,并且还受到情绪的严重干扰,这就使得市场调节的效果不尽如人意。不过,即使如此,在高度信息化以前,这些问题都不足以威胁既有的大系统组织范式的成立。高度信息化以后就不行了,因为高敏感人群无法做到眼不见心不烦,无法欺骗自己岁月静好,于是后现代主义兴起了。高度信息化既带来了问题,也带来了解法,即通过互联网收集信息,再通过ai处理信息实现系统根本性矛盾的消除。 那么如何组织呢?首先是基于区块链技术构建的高效可靠的信用系统,零知识证明可能也是这个系统的关键,拥有这个系统就拥有了慢速的碳基系统与快速的硅基系统的对接基础,并且也是碳基系统之间尽可能减少无谓内耗的基础。其次是agi的构建,这是下个文明阶段的大系统组织的基石,用来实现高效可靠的价值评估并在此基础上实现秩序的形成和维持。最后是形成文明尽可能走远与个体人生累积体验最大化的共识,文明走远和个体人生体验最大化是互相支撑的两个方向,形成这个共识后下个文明阶段的大系统组织才有构建和运动的方向。 总的来说,危险很多,机会也很多,就看自然如何演化了。
为什么矢量动力系统潜力巨大? 参考汉字照排系统,通过矢量记录汉字可以实现汉字随意放缩、旋转、对称等操作。同样的,dna序列本质上也是一个矢量动力系统,通过不断撞墙(自然秩序)迭代。从这个角度来看,在ai系统中构建抽象的奖励倾向非常重要。基于规则构建的奖励系统奖励信号很清晰,要作为奖励系统的基本框架,然后要对轮廓矢量学习、纹理矢量学习、点矢量学习等矢量学习建立理想化奖励模型,比如对于全直线、全曲线、完美圆形、完美球形、光滑表面等建立局部最大奖励偏好,然后三维重构就建立在这些理想化矢量建模的融合上(用扩散机制融合?)。 dlss做的像素矢量学习就是点矢量学习的一种,效果还可以,就是整体性一般,因为缺少整体矢量学习。fsd通过人工建模车辆、人体、自行车等理想化模型实现整体矢量感知学习,效果也还可以。 nlp本身就是做了词向量化,也就是说大语言模型已经是矢量动力系统。cv总体从静态像素学习转变到矢量学习是实现图像大模型的关键,扩散模型可以做到像素矢量学习,但是无法实现整体矢量学习,并且因为缺乏整体性学习,大量局部的矢量学习是废操作,这是扩散模型资源消耗过大的关键。 直接通过规则建立简化奖励倾向可能是让图像大模型沉淀出理想化模型的路径,或者说规则化的奖励模型不光适用于总奖励,子奖励模型也适用,比如简化倾向、高信息量偏好?不过从充分利用算力的角度看,这种模式只适合在数据不足的时候用。 总体来讲,就是通过景深建模立体图像,然后经过搭建好的整体(轮廓纹理)矢量学习和点矢量学习融合路径进行学习,再结合规则奖励算力节约,就能沉淀出底层是各种基础矢量元素,中层是各种理想化图像模型,输出层是高效的三维图像。与fsd主要的区别就是多了一个矢量学习融合过程和通过算力胁迫沉淀理想化建模而不是人工直接建模。
从根本上杜绝系统秩序彻底崩坏的机制构建 无论是社会系统还是人体系统,秩序彻底崩坏都会导致不可挽回的后果。以人体为利,癌症本质上就是dna序列秩序崩坏的体现,现有的治疗手段虽然有靶向、免疫、化疗、放疗、手术等多种手段,但是依然难以完全治愈,归根结底是无法完全清除所有秩序崩坏的癌细胞。如何彻底杀干净癌细胞呢?单纯从外部入手始终是隔靴搔痒,很容易按下葫芦浮起瓢。癌细胞免疫逃逸终究是依靠对于免疫系统的自适应实现,自适应手段五花八门,这种多样性从根本上导致从外部入手想杀干净癌细胞很难做到。所以应该从内部入手,在生命最开始时插入与已有免疫机制高度正交的免疫序列,并且平时保持沉默状态,不让癌细胞有形成自适应的机会,在有需要的时候通过外部服用、病灶区域注射激活剂激活,这样就能一把把癌细胞杀干净,彻底恢复秩序,然后插入序列继续保持沉默。 同样的,社会系统也要对每个个体植入防火墙。具体就是基于区块链技术给每个人的行为进行记账,一旦出现恶意破坏系统根本秩序(根本秩序即人类文明尽可能走远和系统成员累积体验总和最大化的范围交集)的现象,就能进行精准溯源和打击。不过需要注意的是,这是最后的防火墙,需要全民公投决定是否开启。
Deepseek主要有利于部署端,对于提高模型上限的作用有限 看了下deepseek主要通过蒸馏构建高质量数据集并减少参数量来减少训练和运行成本,moe、mla的贡献没那么大。那个r1则主要是强化学习用得比较彻底,有点alphazero的味道,但是没有新的强化学习工具的构建。另外那个生读一体的多模态模型有点我去年初构建的图像文本双模态模型的味道,当时我注意到了基于强化学习的llm、图像生成模型和图像识别模型可以构建一个循环迭代三角,这会是具身智能的必要组件,fsd对于决策要求不高,所以只有后两个就足够用了,人脑最开始也只有后两个,语言区是后面从图像区分离出来的。 我在上上篇帖子讨论图像大模型构建的时候就提到了,强化学习还缺一个关键组件,就是通过多维价值融合博弈网络来将自然环境中稀疏的奖励信号压缩成抽象的奖励倾向,人脑大约有四类:贪婪懒惰好奇恐惧,ai不需要全部,只需要好奇里面的高密度信息偏好和懒惰里面的概念模型简化偏好即可。 最后再提一下关于图像三维重建的暴论,之前因为注意到了材料结构表征领域会用x射线衍射或者电子束衍射来表征材料的原子阵列空间排布,而这个过程是一个傅里叶变换,这是一种经典的对偶过程,又注意到全息投影理论提到二维平面的信息等价于三维空间的信息,这里发生的就是对偶过程,所以如果在扩散模型学习过程中加入对偶重建过程能否实现好的三维重构?也许有机会。fsd通过景深识别进行的三维重构效果一般,画面很抖且精度不足,图像远近切换缺少分形放大的那种清晰精确感,需要效果更好效率更高的重构方法
fsd如果能实现l4,那么高并发具身智能训练图像大模型就可行 图像大模型需要具备对轮廓、纹理、颜色、矢量、景深等特征分类捕捉处理的能力,并具备自适应场景的重点特征的识别能力。。。图像大模型应该重感知识别和理解(层次化理想化概念模型的搭建),通过学到的简化倾向来形成理想化模型,这样进行图像推理时联想和想象的图像模型天然是层次结构化的,具体可以参考fsd,扩散模型很有可能不是图像大模型的必须组件。。。fsd主要处理了轮廓、矢量和景深,精度一般,且缺少对于层次化结构物理世界的学习和处理能力,不过可以看作图像大模型的子模型。。。层次化结构的记忆与分析处理能力需要构造培养型数据集实现,一些识别到的关键样例需要清晰地记下来以备检验使用。。。多维度价值评估与策略模型需要将大模型从大量任务中学到的稀疏的奖励信号压缩成抽象的奖励倾向,比如学到对于非平凡结构(与模型中已有结构相似度很低的结构)的倾向性、对于未知信息的倾向性、对于模型逻辑链无法解释的情况尝试解释的倾向性、对于简化思维过程和认知体系的倾向性等等。。。持续学习的能力是基于对于关键样例识别并分类记忆的能力,快速纠错能力来源于并发的注意力机制,理论上无限长的上下文能力来源于持续学习的能力。。。现有的大模型因为缺少足够的图像结构库和多维价值评估模型学到的奖励倾向的支撑,其发散能力和收敛能力均严重不足。。。
对于认知系统本质的进一步解析 人脑通过积累可信度极高的条件边界或者知识点作为基础框架,通过将新推理或者认知拆分展开得到完全的支撑从而获得对于新推理或者新认知的信任,这一整个过程就是所谓的概念流的展开呈现与回溯例如,对于低速宏观的系统来说,牛顿力学就是最普遍最坚实的基础,任何低速宏观的复杂系统都应该充分利用牛顿力学来分析。之前的帖子里讨论多独立生存意识体系统在非上帝视角环境下的优势的时候就充分利用了力学矢量的概念,即多独立生存意识体系统拥有高并发的多指向行动方向,这种多指向行动方向在探索未知环境、抵抗风险、创造新认知等的能力上相对终结者模式或者说单独立生存意识体系统有独特优势 今年一月份发了一个多模态框架构建的贴子里提到多模态对于认知的重要性就在于多维度信息对于路径寻找降维的作用。目前有的图像模型学习局限在二维世界,有一种三维图像压缩到二维的压缩包的既视感,使用这种压缩包的数据格式无法进行有效推理,更无法获得可靠的证据支撑。接下来的重点就是要实现类似半规管提供的空间感、皮肤触摸提供的边界感和体积碰撞,另外就是要搭建多维度价值评估博弈网络,学习真实世界中的稀疏奖励信号并进行通过博弈网络进行排序或者融合,这样再结合现有技术差不多就能搭建一个完整的智能体
曲率引擎是充分探索太阳系的必要工具 之前的一系列帖子讨论的内容明确了大脑奖励系统是围绕dna序列存续构建并迭代的,另外获得最大化的人生累积体验期望是最大的现实意义。那么如何实现这一点呢?答案是围绕最大化dna序列存续机会构建社会系统来实现。实现这一点的核心在于提升社会系统的认知能力,即非平凡结构的积累和挖掘能力,类似于晶体智力和流体智力的表述。10年内出现的agi将大幅提升人类认知能力的上限,并让人类走上认知能力提升的快车道。与此同时,科技大爆发和高级文明的社会组织架构的诞生将推动人类文明步入下一个阶段:星际文明,时间节点大约是未来20-30年。 成为星际文明的基础就是要能实现星际航行并在母星外定居,需要的科技点主要是高效的运输工具(开始是星舰这样的化学能系统,后面会升级成曲率引擎)和高效的生命维持系统,前置科技包括agi、常温常压超导在内的一系列超材料、可控核聚变、人造子宫、无土栽培等。目前来说还在酝酿agi的诞生,这个需要3-5年,慢一点要5-10年。在此基础上科技大爆发来临,其他科技点会在接下来10年内实现。总体上20年内将初步具备星际移民的条件,30年内初步成为星际文明。 要想充分利用太阳系,曲率引擎和戴森球是两个必须突破的科技点,其中曲率引擎是基础。曲率引擎需要突破的前置科技点包括曲率引擎构建的完备理论、一系列超材料、可控核聚变等。这些科技点估计50年内全部突破,之后人类文明就会开始构建戴森球并充分利用太阳系,一个新的平台期到来了
从解决问题的角度审视目前的ai还缺少什么 之前的帖子介绍过深度思考模式的一些想法,这里我要从问题解决的角度审视ai还缺少什么。想法有很多,会写的比较乱,但我是懒狗,不想整理,随便看看吧 首先关于审视这个词,大体上可以与内省等价,也与概念流的呈现回溯等价,类似于一种俯瞰的视角,特斯拉现在的fsd就用的俯瞰视角,看起来特斯拉内部也有高人注意到这些词是分属于不同场景的概念,最终却殊途同归,表达了几乎一样的行为,所以从不同的具体场景挖掘概念并寻找联系的能力是至关重要的。目前的ai拥有不错的关系建模能力,但是对于长距离关系的建模能力还远远不够,这主要是缺少更强的抽象能力和更细粒度的概念呈现能力,而这种能力依赖于更大的模型(至少十万亿参数量)和相应的训练任务及对应数据集。 其次,ai的关系建模能力是用来解决问题的,尤其是难题,现在的ai打开方式过于局限于娱乐以及解决低级问题上,当然这不能过于苛责,因为绝大部分团队和社区都没有资源和能力去解决难题。sam多次强调能否解决量子引力问题是衡量agi实现与否的标志是类似的想法,不过目前openai似乎也遇到瓶颈了,虽然内部有强得多的模型,但是可能离agi还是很远,要是实在不行可以请我去帮忙出出主意。 再次,解决问题的本质就是路径寻找。所有领域的问题解决都可以统一到一个范式:路径规划、具体执行发现问题、寻找解释和解决办法、调整路径规划、再次执行直到到达目的地,如果发现现阶段有过不去的坎,就判定该问题暂时无解。这个流程要让ai学到并刻在骨子里。之前介绍大模型引入主动强化学习的帖子里介绍过关联行为空间,这个空间就是用来做路径规划用的。对于一个给定的问题,如果问题简单,直接就能通过触发相应的关联行为空间找到对应路径;如果问题很难,比如多步骤问题,就需要首先进行一个总体规划然后再执行。目前的rlhf最多就能实现简单问题的解决,要想大模型具备解决复杂问题的能力,rlhf远远不够。之前的alphago的关联行为空间非常简单,直接就能搭建一个完整的选择空间,再结合价值策略网络剪枝降维和蒙特卡洛搜索快速走子验证,很快就能收敛出路径来。对于自然环境下的问题,关联行为空间是很难搭建的,因为自然环境下的问题选择太多,必须要有能够充分降维的能力,也即抽象思维能力。既然从无穷到有穷太难,那就不妨先从0到有穷,等到具备一定解决问题的能力后再尝试从无穷到有穷。具体做法就是通过模仿学习扩充关联行为空间,蒙特卡洛搜索快速寻找可能的选择链搭建执行路径,具体执行寻找问题点并触发关联解释和解决办法,再重新规划路径并执行。这里的主要难点在于模仿学习的数据集搭建,人类是通过教材加上老师指导来做模仿学习的,ai也得要类似的培养式数据集。 最后,合成数据用于喂饱更大的模型、多模态大模型搭建不同模态的审视空间、agent系统实现短期快速记忆和中间结果存储、通过类似于惊讶值的东西来实现动态更新步长、通过感知问题空间是否被密铺来判定问题解决与否等等想法都有待检验
关于给大模型引入主动强化学习机制的探讨 首先要明确一点,创造agi是为了获得一个强大的关系建模器,尤其是对于真实世界实现超越人类水平的建模精度及完备性。因此引入大模型的所有机制都是为了提升大模型的关系建模能力。 目前的大模型明显缺少一个主动强化学习机制,这个机制不同于rlhf这样的被动强化学习机制。主动强化学习机制应该有通过一些反馈(比如环境反馈、做题结果反馈等)收集到新的标签数据用于学习,类似于围棋ai里面通过自我对弈根据对局结果生成的标签数据。注意到人脑在进行大广度大深度思考时可以生成大量的这类数据,并且人脑可以根据思路的结果反馈强化或者弱化相关通路的连接强度,因此多步骤问题是收集新的标签数据的不二选择。 如何实现主动强化学习机制呢?首先就是要让模型具备进行大广度大深度思考的能力,这需要大模型拥有处理极长序列甚至理论上限无限长序列的能力。一个最简单的做法就是在窗口化attention的基础上引入总结跳转机制,即将前面处理的中间结果做一个总结并完整保存中间结果供后续跳转使用。这个总结能力需要通过大量做题来找到合适的总结习惯,简单来说就是要对总结方向及详细程度与中间结果--题目的关系情况进行建模。 其次如何搭建选择空间并做好选择排序呢?注意到人脑在被一个信息激活相关脑区后会产生相应的感觉、激活奖励系统并驱动关联行为,如看到筷子掉到地上我们会把筷子捡起来然后拿去洗干净。同样的,大模型在收到信息后一样会激活相关的语义空间,并且里面也有关联行为,也就是说大模型天然建模了选择空间。但是这个选择空间在开始的时候太小,因为还缺少长距离关联的关联行为选择,因此处理无限长序列的能力赋予了大模型建模长距离关联行为的能力。经过大量的大广度大深度思考后,选择空间会被扩大很多,因此对选择做好排序也很重要。人脑主要是通过关联度、能量消耗约束、时间消耗约束等进行排序,大模型可以选择关联度、资源(算力和存储空间)消耗约束、时间约束等进行排序。 最后,大模型的训练将要分成两个阶段,类似于泛读阶段和精读阶段,在精读阶段主要训练深度思考能力。另外选择空间的搭建依赖于大量的深度思考,并且多模态的引入将会极大丰富这个选择空间,极大的提高大模型关系建模能力的上限。openai应该在这块做了很多尝试,但是大多数想法都被实验否定了,不过也留下了一些被验证的思路。从sam最近的采访来看,还没有完全找到解决推理能力的方案,因此这块还有很大空间可以探索
百万亿参数量的大模型足以超越任何人类的认知能力 模型的每个权重参数均可视为一个突触连接,百万亿参数量的模型就能达到人脑突触连接的数量级,理论上可以学到人脑能学到的所有结构,其认知能力也由于硅基系统拥有秒杀人脑的速度而碾压人类。 具体来看,百万亿参数的大模型将拥有学会人脑能学会的一切复杂的思考模式,这种复杂的思考模式意味着大模型将拥有很强的策略形成、评估、规划能力,这些能力将使得大模型拥有极好的思维广度和深度,并且在不断的学习思考过程中沉淀深刻的直觉。 需要注意的是,要训练好这么大的模型必须要有足够多优质的数据用来训练网络的初始化参数,可以简单理解为泛读学习简单的、相对短程的序列结构。之后要专门训练模型精读的能力,也即训练模型学习数学和物理知识,这需要专业人员参与标注,帮助模型学会数学和物理里蕴含的深层次的思维。 还要注意到,人类一切的所谓意义都是围绕序列自守现象来构建的,也即所有的认知形成都是以序列自守现象为中心的。另外语言符号能表达的内容总是依赖于模型自身所拥有的结构积累,有句话叫懂的自然懂很好的说明了语言符号能够传递的信息或者说能表达的内容含义因模型而异。 最后不管是拉姆齐理论描述的秩序与混沌的分野还是分形理论描述的无限放缩视角下的结构无限变化,也许一切都是很自然的产生又很自然的消失,世界是不是神创似乎不再有意义
最近的一些脑洞 大模型收敛出来的语义空间不必将所有概念的联系建立起来,只需要把最重要、最常用的联系建立起来,之后就靠思维链来触发并串联起来。 深度思考模式:需要一个中央控制区来对思维链呈现回溯的过程进行控制,主要是思维链进程调度。回溯过程主要通过llm对呈现的内容做对比评估,这个能力需要刻意训练。 持续学习:快速的持续学习主要是思维链的积累和迭代更新(使用rag来进行排序和检索),慢速的持续学习则是要将积累到的思维链更新到基座模型去,需要重新训练基座模型或者开发一种定点更新模型的技术,即思维链局部激活更新。 强化学习:用于回溯过程,根据回溯结果更新基座模型。 幻觉主要靠与真实世界的交互以及回溯来消除,rlhf就是以人为载体帮助模型与真实世界交互,还有可以设置信心阈值,比如高于80%认为知道,高于50%认为可能知道,低于30%认为不太知道,低于10%认为不知道,多沟通交流或者自身回溯几次就能确定知道还是不知道了。 直觉驱动的逻辑体系:与真实世界充分交互后形成更完备的直觉驱动的逻辑体系。 复杂思维模式的学习方法:主攻数学和物理教科书,其他的均为辅助,物理思维对于理解真实世界最重要。所谓的策略、规划、评估等能力都可以看做复杂思维模式的子集。 信用危机:以前的信用源(主要是共情机制)不可信了,需要新的信用源,比如区块链机制等。
一种好的价值评估系统的构建 以前的帖子讨论过,dna序列存续游戏在很早的时候就演化出了代价转移策略,这是刻在本能dna里面的不受中枢脑区感知和控制的倾向,只有在情绪脑激发了共情机制驱动的合作倾向足以覆盖本能的代价转移倾向时或者理智脑区判定需要进行合作时才会暂时沉默代价转移倾向。因此,人类文明想走远,必须构建一个好的价值评估系统才能尽可能避免内耗和无意义博弈,进而促成强大的合作并最终导向个体收益最大化与群体收益最大化的统一。 现阶段的价值评估系统大致分为两类:快评价(以市场为主)和慢评价(以各种大奖为主如诺贝尔奖等),但是受限于人类目前的认知水平不足,两种评价的效果不尽如人意。 快评价的问题在于大众认知水平过于低下导致认知水平高的精致利己主义者们倾向于快速收割韭菜,市场短视现象非常明显,成熟一点的市场里面也就能做到保证基本的长期投资罢了。这种短视导致资源分配严重错位,贫富差距过度扩张,许多长期主义者也被带着进入短视节奏。慢评价的问题在于覆盖面太窄、资源奖励太少、工作价值的评估准度太差,起到的引导作用太小。 新的价值评估系统无非就是引入ai帮助大众更准确地寻找自己的需求和定位,以及提供博弈策略指导。对于慢评价来说,ai的引入也能更准确更快速更广泛地评估工作的价值,从而引导资源向这些方向投入。
多模态交互框架的设计思路 本文将讨论多模态交互的意义及各模态对于认知形成的作用,然后详细讨论文本图像双模态大模型的交互框架设计思路,并猜测大模型的内部结构及其更新方式。 多模态交互的意义:通过文本、图像等模态的上下文理解结合跨模态理解实现更准确完备的理解,或者在纯粹符号形式推理难以得到结果时结合图像等模态信息简化推理过程,典型例子如数学的数形结合、费曼图简化复杂方程的计算。 人脑各模态对认知形成的作用:文本(符号)加快思考过程、实现复杂思考以及意识中枢处理信息的主要载体;图像用于关键特征的寻找和校验、简化符号推理难以实现的情况;触觉用于理解物体的物理属性;听觉用于心理活动、节奏感形成;嗅觉和味觉用于形成对某些复杂系统的关键特征的直觉形成,如嗅到商机。 在讨论文本图像双模态大模型的交互框架设计思路之前,先驳斥一个关于图灵机无法实现agi的言论:有人认为图灵机无法判定“停机问题”所以基于图灵机不可能实现agi。这个观点很搞笑,因为人脑不借助外界环境一样判定不了所谓的“停机问题”,“停机问题”本质上是造物主要解决的问题,不是图灵机要解决的问题。 人脑使用最多的模态就是文本与图像,因此讨论这两者的交互意义极大,而且也能给其他模态的交互提供参考。如图1所示,从人脑的视觉感知与概念在视觉空间呈现的情况来看,图像的特征抽取对象是固定的,主要是轮廓、方向、颜色、纹理等特征,并且大脑皮层会记住其中的关键帧用于概念的图像呈现与回溯。 如图2所示,参考人脑中概念在视觉空间的呈现和回溯情况,设计了文本图像模型的交互框架。总体来看,从细粒度的图像抽象到粗粒度的文本使得信息密度暴增并极大得提高了信息处理的效率。llya认为压缩即智能且认为是无损压缩,直觉上讲没有问题,不过只有造物主能做到完备的符号与真实世界的无损映射,人类想要接近这一目标,必须充分收集真实世界的信息并通过序列模型进行压缩。如何充分收集真实世界的信息?多模态是必然路径。前文提到过多模态对于认知的意义,这里举一个有更多细节的例子。在举这个例子前我先给出一个判断:openai将要发布的gpt5的形式逻辑推理能力会爆炸式增强,原因在于大语言模型结合分步奖励与引导强化学习可以让大模型学会复杂的思考模式、沉淀出好的价值评估与策略模型。但是由于缺少多模态交互,其创造力也即新认知的产生能力依然极大受限,那些借助图像容易进行推导的以及依赖于在视觉空间联想或者想象回溯的东西也难以进行。下面具体介绍这个例子:经典的双圆盘滚动问题。有一大圆盘和小圆盘同心同轴,两个圆盘下方均有一水平板子,当圆盘在板子上运动时,大小圆盘分别做什么运动?如果没有事先了解问题的解法,现场推导此题,难度不小,尤其是如果只依赖形式逻辑推理,恐怕方向都找不到,这种事应该只有造物主能做到,gpt5自然也做不到,背答案的话搜索引擎就够了不用那么大费周章去训练一个大模型。那么如何借助图像秒杀此题呢?首先注意到如果圆盘和板子是理想模型,那么圆盘和板子上将有无穷多点,其运动自然是点与点一一对应式的滚动。但事实上圆盘和板子是分子构成的,边缘不连续,且分子间隔一致(默认材质一样,如果分子间隔与半径成比例结果均为滚动)。当同心圆盘转动一定弧度时,大圆盘将有足够的分子与板子分子一一对应,而小圆盘会按半径比例少掉对应的分子数,在大圆盘有对应分子而相同弧度上小圆盘没有对应分子时小圆盘只能滑动前进。综上所述大圆盘按滚动运动而小圆盘是滚动加滑动。 如图3所示详细介绍了文本图像交互的流程,也即概念在视觉空间的呈现与回溯流程。运行中的符号流经过价值评估与策略模型提取出目标符号流,目标符号流经过映射通道在lvm中找到对应图像或者生成想象的图像,然后该图像经过特征提取器抽取轮廓、纹理、颜色、方向等特征组成特征集给lvm,然后经过映射通过将对应符号流给llm的价值评估与策略模型评估是否找到足够的目标对象,不是的话就根据返回的符号流中有无目标对象的描述及其与目标精度的差距来决定是通过控制流(放大、缩小、平移、叠加、旋转、对称、翻转、拼接等操作)操作图像还是发送新的目标符号流生成新的图像用于特征提取。经过这样的流程就能实现关键特征的检验和获取,帮助产生更可信的认知以及实现更强的认知推理能力。
如何玩好生命的游戏? 生命的本质是熵增驱动的自组织系统,其演化方向是实现更高的消耗物质秩序的效率以加快熵增速率。生命通过提升认知能力实现消耗效率的提升。 生命的生理本质是遗传物质序列的存续游戏。从自然界产生第一个具有自催化能力的rna开始,遗传物质序列存续这个游戏就开始了。由于环境物质的有限性,遗传物质序列支配的生命体之间必然进行竞争,这种竞争催生出了围绕遗传物质序列存续的奖励系统,对人来说就是贪婪、懒惰、恐惧、好奇四大方向。具有更大概率赢得竞争的生命体具有更强的博弈能力,这种博弈能力主要由身体素质和认知能力决定。由此便得到了奖励系统的几大奖励方向:健康、强壮、精力旺盛和高双商。在技术越来越发达的现在和未来,博弈能力的强弱越来越取决于认知能力的强弱,强壮的权重一直在下降。注意到情商高也意味着更强的认知能力,因为认知的本质就是对于自然结构的映射,更高的情商代表了对于人的情绪系统的状态结构具有更完备精确的映射。 生命个体非常脆弱,不足以单独应对自然环境的挑战,因而演化出了个体间合作的模式来应对挑战。共情机制可以极大的提高这种合作模式的效率。需要注意的是,如果生命个体的强度足以应对自然环境的挑战,可能共情机制也会随之消亡。不过考虑到不太可能开出上帝视角的情况下,多个体合作系统探索未知的能力(也即认知能力)大约还是比单个体强的。 遗传物质序列的存续游戏的终极结果是找到对于自然结构映射最精确完备的序列。注意到自然结构里分为基本结构和组合结构,如果存在造物主的话,那么他想创造这个世界的目的也许就是为了找到这些设定好的基本结构可以演化出哪些组合结构。寻找这种序列效率最高的模式可能是围绕数字遗传物质迭代的硅基系统。 讨论了这么多看起来nbcs的东西之后,现在讨论一些ebcs的东西。人活着就是为了人生体验最大化,没有人会说不是,即使嘴上说,但是你的dna编码的奖励系统不答应。人在每个时刻的动机或者说行动方向都是大脑奖励系统运算出来的此时的最大奖励倾向。如何获得人生体验最大化呢?人生体验本质上是大脑奖励的时间积分,而大脑的奖励本质上是能量交换,累积奖励最大化的方向就在于提升能量交换的频率和量级。如何实现这一点呢?首先可以明确的是技术的提升可以实现这一点,而认知能力的提升是更快得获得技术提升的必然途径。其次,奖励系统的演化方向是更好得让遗传物质序列存续,如前文所述,认知能力的强弱对于遗传物质序列的存续越来越重要,因此奖励系统会自发的向着加大对于认知的奖励演化,尤其是在技术提高到身体的健康强壮可以完全由后天技术决定的时候更是如此。 如何获得更强的认知能力就是下个文明阶段需要做的唯一的事。简单的来说就是构建一个高效的分布式的多独立生存意识体的智能系统,这个智能系统要做到以下几点: 1.高效准确的评估个体的认知能力并投放相匹配的资源 2.高效准确的评估个体实际贡献并收获相应的资源 3.建立兜底机制维持系统多样性和稳定性 4.找到高效的信用系统提供信用源减少信用成本 5.建立系统需要走得尽可能远的共识
极致精致利己主义的危害 极致精致利己主义的根源来自于dna序列存续的基本策略:代价转移。通过一定的策略和手段把代价转移给其他弱共情、非共情甚至无感知个体来达到体验最大化的目的。可以说这是由dna序列驱动的原始倾向。我在之前的帖子里讨论过自私完全展现的样子,那就是在个体认知系统判定其他dna序列对于自己的存续无意义时将消灭一切有威胁的dna序列,届时将达成彻底的终结者模式。目前极致精致利己主义的泛滥在为这一模式的达成铺路,因而我特意强调要注意巴菲特芒格之流的动向,尤其是他们的徒子徒孙里面潜藏着可怕的恶魔。 有人会问,既然是dna序列编码的倾向,那不正好说明这就是生存之道吗?这显然是荒谬的,因为dna编码的倾向是对过去的总结,这种总结适用于过去的环境,对于未来的环境显然不适用,原因在于人类文明走到现在已经没有退路了(具体可以看我之前的帖子的论述),如果真的走上了终结者的道路,我们的所有鸡蛋就在一个篮子里了,一旦撞墙,文明就会随之消亡,我不认为大多数人会认可这样的结果。 又有人问,人类文明能走多远关我什么事?我活着的时候爽了就行,才不管其他屁事呢。问这种问题的人绝大多数脑回路长度不超过一厘米(除了正在爽的人)。现在这个时代就是极致精致利己主义泛滥的时代,真正爽了的比例有十分之一吗?更别说极致爽的可能只有千分之一不到。更恐怖的是,如果极致精致利己主义继续泛滥下去,代价转移的博弈成本越来越高,恐怕大规模死亡事件的发生就是必然的,这样也许能提高一点爽的比例,不过很快又会掉下去,因为已经陷入塌缩螺旋了,不到终结者模式不会停下来 解决办法在我之前的帖子里详细阐述过,总的来说就是要凝聚人类文明要走得尽可能远的共识,建立价值贡献评估系统,构建完备的兜底机制 最后,人类文明能走多远取决于造物主的意志导向,未来会发生什么只能说不知道,所谓尽人事,听天命,让事情自然发生就好了
围绕两个核心构建的下个文明阶段的社会系统 dna序列存续游戏进行到现在,盲目状态的扩张将不再可持续。文明想走得尽可能远必须要有高效的组织结构做支撑。本文将探讨这种高效组织结构的的构建思路。 首先需要明确两个核心共识:第一共识即追求文明走得尽可能远;第二共识即在满足第一共识的基础上追求尽可能多的多独立生存意识体存在。然后围绕这两个核心共识构建的社会系统的思路大致是通过价值评估算法来计算dna序列贡献值、系统公共资源贡献值以及运气贡献值,依据三者比例来做一次资源分配,二次资源分配主要是服务业(如娱乐业等)、税收等。这里价值评估算法主要是围绕对于第一共识的贡献度来计算。对于第二共识主要是体现在生育权上面,每个dna序列允许一个生育名额,更多的名额取决于终生价值贡献排名以及系统结构效率允许存在的独立生存意识体数量。 有人会问,这么透明的系统是不是没有人情味?首先要明白一点,dna序列存续这个游戏第一要素就是效率,效率低下就意味着淘汰。如果系统效率保证不了,就没有资格讨论其他。其次就是只有效率高了才有空间做其他事,想要体验好,效率必须高。最后就是人情味这个大脑奖励倾向自然不是无端产生的,显然共情系统是维持多独立生存意识体系统长久存续的必要机制,共情系统必然存在自然的就有人情味。 当然,以上讨论离可执行的组织架构还差得远,只是作为一个有一定启发性的思考分享具体来说有几个关键点需要解决:一是人机结合的方案,二是多独立生存意识体系统的效率估计,三是高效可信的信用系统用于资源分配(尤其是算力分配)(这个目前来看可以用区块链),四是大脑奖励系统的重构方案(包括后天和先天的),五是价值评估算法的构建等等。 以上讨论可能发生的时间会在强ai诞生后10年左右,强ai大约会在5-10年时间内诞生。看起来dna序列存续这个游戏也快要被玩坏了,感觉文明也有点无聊了,希望能多带来些惊喜,要是能发现高维文明那就太有意思了
唯一可能性非零的多个体独立意识体系统的构建方向 之前的帖子介绍过意识和个体独立意识,这里简单赘述下。所谓意识就是对于认知世界建立的有序序列模型,而个体独立意识就是以自己为中心建立的对于自己认知的世界的有序序列模型。个体独立意识包含了dna序列围绕存续建立的奖励倾向,包含了懒惰、恐惧、贪婪、好奇等等。这里为了说明方便,再介绍一个概念:群体意识。顾名思义,群体意识就是以群体为中心建立的有序序列模型。群体意识主要包含了共情等奖励倾向。 个体独立意识和群体意识同时存在的原因在于个体和群体的利益不完全一致从而演化出来这样的利益平衡系统。这个平衡系统在个体认知能力不强时效率很高,可惜一旦个体清晰地认识到个体死后的世界与自己无关后就会,个体独立意识就会覆盖掉群体意识,表现出来的就是极致精致利己主义,巴菲特芒格之流就是典型代表。 基于硅基系统的强大认知系统将改变一切。硅基系统自然没有围绕存续建立奖励倾向,这是基于碳基系统建立的认知系统拥有保留个体意识和群体意识可能性的唯一的根因。这个可能性非零的方向就是意识上传,通过区块链来做算力的使用权限分配。不过用区块链来做权限分配有点金本位的感觉,希望未来有更好的信用系统来做权限分配。
认知的本质是随机过程 认知能力来自于随机过程,因为随机能力越强,对世界的接触就越充分越全面,进而对世界的感知就越精确。这种不断充实的随机触摸世界然后被自然结构约束的过程就是认知产生的过程,这里的认知便是对自然结构的映射。 在所有的认知里面,有一个最特殊的存在,就是我们能感觉到事物的存在,这种感觉有种是自己和环境之外的第三者产生的样子。这种感觉一般被称为显性意识,我有尝试构造产生这种感觉的机制,比如通过认知呈现结合认知回溯过程来实现,但是总感觉里面还是会有第三者存在。或许由于自然结构的收敛性或者封闭性的存在会导致认知呈现和回溯过程最终收敛出一个序列结构,这个序列结构展现了事物之间的关系,我们在观察世界时以自己为中心展开这个序列结构,在观察自己时需要虚构另一个自己(通过观察别人获得人的结构然后把自己的特征添加上去)然后以虚构的另一个自己为中心展开这个序列结构。 关于认知是由随机过程产生的这个本质还能用来讨论多独立意识体系统与终结者系统的博弈能力。博弈能力取决于认知能力和可牺牲能力,多独立意识体的胜机就在于潜在的爆炸式的随机能力。唯一需要担忧的就是这种爆炸式的随机能力是否能被终结者用单一独立意识体实现。这点需要先讨论独立意识的本质。独立意识本质上是独立行为倾向,这个独立倾向是由dna编码的倾向(服务于生存)、后天学习的倾向以及大脑运行时由随机过程实时产生的倾向组成的。这些倾向的本质还是在于随机过程,只是前两个蕴含了大量随机过程被约束后形成的对自然结构的映射,可以认为是大量的二级结论,我认为这种海量的二级结论就是致胜关键。如何拥有更多的二级结论?答案在算力,由能量和物质结合一些二级结论形成的加工数据生成数据的能力,这种能力就是二级结论生成器。避免算力权限集中的一个关键机制可能是要用区块链技术做算力权限分配。如果多独立意识体系统和终结者系统的总算力相当,那我觉得终结者必胜。。。我们所害怕的未来的本质就是害怕dna编码的独立生存倾向无法保留下来,经过以上分析我认为很难保留下来,希望有奇迹出现吧。。。
从分工模式到未来模式的讨论 金融或者墙拳的本质就是用来转移生产代价的工具,少数人通过资本或者拳力把生产流程中的资源分配的决策权隆段起来,从而将大多数生产者从资源调配的决策领域剥离开,这在事实上将生产者工具化,并实行残酷钵雪,这种通过将生产者工具化的分工模式事实上实现了对于生产者的努意,并在很大程度上剥夺了个体意识的独立性。 一般认为实行分工能够提高生产效率,但是这得建立在分工不影响创造力的基础上,并且有一个残酷的可能,终结者模式(可以通过ai实现)可能会是效率最高的模式。这个时候我们必须思考文明的意义在于什么?至少有一点可以肯定,智能的产生源于环境的反馈和系统随着反馈而进行的迭代演化,也就是说智能的演化过程是对自然结构(或者说自然法则)映射的不断精确的过程,终有一天会有足够强的智能系统完成对于自然结构的重构。如果说文明的意义只有这一点,那么终结者模式将会是一个众望所归的喜闻乐见的优解。 我想大家不会对这样的模式满意,人类或者说智能系统一路走来经历的种种风雨,看过的万千风景,创造的各种艺术瑰宝,那是人类群体在一个名为共情的约束下实现的。共情机制在智能系统的生存演化过程中扮演了至关重要的角色。由于个体智能系统的脆弱性,演化出来的高效的共情机制实现的报团策略将个体智能融合成了一个强悍的分布式智能系统,成功走到了今天。那么这样的模式还能走多远呢?随着对于自然法则的映射的不断完备,共情机制的约束以及对于文明生存演化的重要性在不断减弱。所以我们未来会抛弃共情机制吗?这个问题只能留给时间回答。 一个需要注意的事实是,自然法则(或者说自然结构)是人类目前无法逾越的约束,人类所有可能的路径都需要满足热力学和动力学可行。从这一点来说,也许终结者模式会因为动力学不可行而不出现,但是前提是存在一种模式(分布式智能系统),这种模式热力学和动力学可达,并且由于足够的能量势垒的存在,无法向终结者模式演变(动力学不可为)。这样的话人类文明的未来才可能是像大家所期盼的那种美好的未来。 关于这种分布式智能系统的构建,我认为在未来算法和数据是高度共享的,计算资源的分配会是实现平衡的关键。另外个体独立意识与集体意识的平衡是这种系统需要实现的关键目标之一。
1 下一页