🌈最爱打脸酱🍭
最爱打脸酱
ballball度娘做个人吧
关注数: 42
粉丝数: 53
发帖数: 5,145
关注贴吧数: 49
为什么多模态很重要? 因为只有拥有场景理解能力才能形成完整的概念,这是认知结构层次决定的,也即需要从真实世界中学到足够的元结构才能支撑完整的概念形成。就比如几何原本中的一系列公理和基于公理推导出来的一系列定理,这些公理和推导结构是由直觉驱动的,而这种直觉来源于生活生产场景的理解,比如直线、平行、圆等等这种概念就是通过理想化图像特征产生的,这种理想化过程本质上是一种相同特征结构的无限平移,而实现这种概念无限平移需要依赖惯性动力矢量,也许在算法层面就要设计一个专门的向量结构用来实现这种惯性矢量,另外就是要设置缺省停止机制,避免计算及存储资源浪费。 事实上数学、物理、生物、化学、计算机科学乃至哲学、文学等等所有学科领域的理论构建都依赖于这种理想化直觉的驱动,比如数学的连续、分形,物理的惯性,生物的演化等等概念都依赖理想化直觉来实现。大模型具备这种能力后就拥有了完整的想象力和创造力,技术奇点也就自然触发了。
下个文明阶段的大系统组织范式 随着后现代主义的快速泛滥,传统的依赖相信虚拟故事也即宏大叙事组织大系统的范式逐渐被解构,新的大系统组织范式呼之欲出。 我在之前的一篇帖子里讨论过保守主义和自由主义的特点和作用,总的来讲就是一对拮抗倾向,这对拮抗倾向是自然演化出来的用来在组织系统内筛选dna序列结构的。在明确了大系统组织结构的建构力量和解构力量的核心驱动力后,再来讨论如何进行下个文明阶段的大系统组织。 后现代主义寻求解构一切的绝对自由以达到极致爽感,这是一种明显的自毁倾向,形成这种自毁倾向的核心驱动力就是既有社会系统本身充满大量根本性矛盾,这使得高敏感群体在高度信息化的时代无法在颅内调和这种矛盾也即所谓的形成多套言行体系,时间久了之后大脑放弃挣扎转而寻求毁灭一切来实现矛盾或者说扭曲的彻底消灭。 如何进行下个文明阶段的大系统组织呢?从根本上来说就是要消除系统的根本性矛盾,这点在信息化时代以前是无法做到的,因为人脑没有处理如此庞大又复杂的信息的能力,人们也没有收集足够信息的能力,最多只能通过市场化来做一定的调节,但是人们的价值评估能力有限,并且还受到情绪的严重干扰,这就使得市场调节的效果不尽如人意。不过,即使如此,在高度信息化以前,这些问题都不足以威胁既有的大系统组织范式的成立。高度信息化以后就不行了,因为高敏感人群无法做到眼不见心不烦,无法欺骗自己岁月静好,于是后现代主义兴起了。高度信息化既带来了问题,也带来了解法,即通过互联网收集信息,再通过ai处理信息实现系统根本性矛盾的消除。 那么如何组织呢?首先是基于区块链技术构建的高效可靠的信用系统,零知识证明可能也是这个系统的关键,拥有这个系统就拥有了慢速的碳基系统与快速的硅基系统的对接基础,并且也是碳基系统之间尽可能减少无谓内耗的基础。其次是agi的构建,这是下个文明阶段的大系统组织的基石,用来实现高效可靠的价值评估并在此基础上实现秩序的形成和维持。最后是形成文明尽可能走远与个体人生累积体验最大化的共识,文明走远和个体人生体验最大化是互相支撑的两个方向,形成这个共识后下个文明阶段的大系统组织才有构建和运动的方向。 总的来说,危险很多,机会也很多,就看自然如何演化了。
为什么矢量动力系统潜力巨大? 参考汉字照排系统,通过矢量记录汉字可以实现汉字随意放缩、旋转、对称等操作。同样的,dna序列本质上也是一个矢量动力系统,通过不断撞墙(自然秩序)迭代。从这个角度来看,在ai系统中构建抽象的奖励倾向非常重要。基于规则构建的奖励系统奖励信号很清晰,要作为奖励系统的基本框架,然后要对轮廓矢量学习、纹理矢量学习、点矢量学习等矢量学习建立理想化奖励模型,比如对于全直线、全曲线、完美圆形、完美球形、光滑表面等建立局部最大奖励偏好,然后三维重构就建立在这些理想化矢量建模的融合上(用扩散机制融合?)。 dlss做的像素矢量学习就是点矢量学习的一种,效果还可以,就是整体性一般,因为缺少整体矢量学习。fsd通过人工建模车辆、人体、自行车等理想化模型实现整体矢量感知学习,效果也还可以。 nlp本身就是做了词向量化,也就是说大语言模型已经是矢量动力系统。cv总体从静态像素学习转变到矢量学习是实现图像大模型的关键,扩散模型可以做到像素矢量学习,但是无法实现整体矢量学习,并且因为缺乏整体性学习,大量局部的矢量学习是废操作,这是扩散模型资源消耗过大的关键。 直接通过规则建立简化奖励倾向可能是让图像大模型沉淀出理想化模型的路径,或者说规则化的奖励模型不光适用于总奖励,子奖励模型也适用,比如简化倾向、高信息量偏好?不过从充分利用算力的角度看,这种模式只适合在数据不足的时候用。 总体来讲,就是通过景深建模立体图像,然后经过搭建好的整体(轮廓纹理)矢量学习和点矢量学习融合路径进行学习,再结合规则奖励算力节约,就能沉淀出底层是各种基础矢量元素,中层是各种理想化图像模型,输出层是高效的三维图像。与fsd主要的区别就是多了一个矢量学习融合过程和通过算力胁迫沉淀理想化建模而不是人工直接建模。
人脑三维重构功能的实现可能很低级 之前一直觉得人脑三维重构的能力很神秘,能把物体的结构刚性塑性弹性粘性流动性等物理性质对应上去,还能把物体的实质部分构建出来,更神奇的是能够想象出视角拉近拉远状态下物体细节变化的情况,想着是不是通过什么高级机制比如对偶过程实现的。现在想想根本不需要什么高级机制。下面阐述下人脑进行三维重构的机制。 首先通过人眼的ccd立体照相结合景深特征识别和阴影特征识别构建三维图像边界,再结合理想化过程处理(主要是平移、对称,可能有旋转),把物体实质构建出来。物体的物理属性、化学属性通过视觉脑区识别到的矢量、颜色等特征识别以及其他脑区的触觉、嗅觉、味觉特征识别进行对齐构建。至于视角变化引发的物体细节呈现的变化本质上就是一种场景记忆的投射。 那么如何用算法实现呢?事实上fsd已经实现大部分了,可能比较欠缺的就是理想化处理过程还不够好,缺少化学性质对齐,物理性质对齐则只做了最简单的矢量,缺少触觉特征感知。最重要的是自动驾驶场景太单一,任务太简单,精度要求不高,什么时候机器手能通过敲键盘打游戏赢人类,什么时候才算实现了具身智能
从根本上杜绝系统秩序彻底崩坏的机制构建 无论是社会系统还是人体系统,秩序彻底崩坏都会导致不可挽回的后果。以人体为利,癌症本质上就是dna序列秩序崩坏的体现,现有的治疗手段虽然有靶向、免疫、化疗、放疗、手术等多种手段,但是依然难以完全治愈,归根结底是无法完全清除所有秩序崩坏的癌细胞。如何彻底杀干净癌细胞呢?单纯从外部入手始终是隔靴搔痒,很容易按下葫芦浮起瓢。癌细胞免疫逃逸终究是依靠对于免疫系统的自适应实现,自适应手段五花八门,这种多样性从根本上导致从外部入手想杀干净癌细胞很难做到。所以应该从内部入手,在生命最开始时插入与已有免疫机制高度正交的免疫序列,并且平时保持沉默状态,不让癌细胞有形成自适应的机会,在有需要的时候通过外部服用、病灶区域注射激活剂激活,这样就能一把把癌细胞杀干净,彻底恢复秩序,然后插入序列继续保持沉默。 同样的,社会系统也要对每个个体植入防火墙。具体就是基于区块链技术给每个人的行为进行记账,一旦出现恶意破坏系统根本秩序(根本秩序即人类文明尽可能走远和系统成员累积体验总和最大化的范围交集)的现象,就能进行精准溯源和打击。不过需要注意的是,这是最后的防火墙,需要全民公投决定是否开启。
深度思考模式和直觉模式的优劣 直觉模式通过直接反射模型中已有的路径结构进行结构反馈,优点是快速、可穷尽模型已学到结构的潜力,缺点是如果模型中已有的结构存在错误或者误差,直觉反射出来的反馈结构也会因此存在错误或者误差,且直觉本身无法进行校验纠正。 深度思考模式通过将直觉反射的反馈结构(即概念流)进行展开呈现回溯从而实现结构反馈,优点是可纠正、对于可以完全展开的结构反射精度更高,缺点是模型中已有结构存在无法完全展开的结构因而无法穷尽模型潜力,且对于这种无法完全展开的结构映射精度往往不如直觉(反射路径上存在深度思考模式可纠正的错误或者误差除外)。另外存在纠正路径出现错误的情况,不过交叉验证路径越多出现错误的可能性越低。 综上,深度思考模式就像牛牛把吃下去的草进行反刍一样,将模型中映射的结构吐出来进行检验纠正,然后模型再把纠正过程和结果吃回去,模型的性能自然就提高了。
人类在本世纪将会经历一次高烈度的筛选 从人类发明文字创造文明再到工业革命总共也不过区区六千年,应该说从自然演化的角度看,这是突然发生的一次剧烈的相变,如此之短的时间内根本来不及进行基因上的大迭代,只够进行筛选。人类生存环境的剧变导致已有的大脑奖励系统构筑严重滞后,只能通过后天教育疯狂打补丁勉强适应,而随着人类认知的不断提升,人脑奖励系统的bug尤其是一些深层的系统性bug被不断发掘并被滥用,典型代表就是毒品、dei、回归原始社会的自由主义等等。近几十年来人们越来越不相信死后世界与自己有关,以及互联网带来的信息快速流动让人们乐衷于寻找短期体验最优解而无视长期体验,追求尽可能又快又强烈的极致及时行乐主义及其衍生的极致精致利己主义,这种趋势的泛滥意味着人类社会这个脆弱的自组织系统的崩溃即将来临。 如果人类文明找到了通往远方的路,那么一定是一群能够接受延迟满足的人推动的,并且借助了agi的力量。现在还很难说agi确切的登场时间以及将会扮演的角色,唯一能确定的就是一场史无前例的大筛选不可避免,这是通往高级文明的必经之路。
为什么图像模型学会图像三维重构很重要? 首先是要想形成体积的概念,必须要有图像三维重构的能力,现有的图像模型生成的图片视频普遍像一缕烟,完全没有体积的概念,遮挡部分的细节处理也很糟糕,例如手部细节。 其次是效率问题。为什么sora或者其他图像模型普遍生成图像的资源消耗很大还难以修改?因为三维世界的图像压缩到二维平面上的图像类型会指数型上升,大量相同的物体组合因为遮挡、重叠等位置关系不同在二维图像上会显示成不同类别,这导致模型学到的图像类别过多,压缩得极其不充分。 最后充分压缩的图像结构就是认知的元结构,大模型领域的几何原本时刻就是图像大模型学会高效三维重构的时刻
Deepseek主要有利于部署端,对于提高模型上限的作用有限 看了下deepseek主要通过蒸馏构建高质量数据集并减少参数量来减少训练和运行成本,moe、mla的贡献没那么大。那个r1则主要是强化学习用得比较彻底,有点alphazero的味道,但是没有新的强化学习工具的构建。另外那个生读一体的多模态模型有点我去年初构建的图像文本双模态模型的味道,当时我注意到了基于强化学习的llm、图像生成模型和图像识别模型可以构建一个循环迭代三角,这会是具身智能的必要组件,fsd对于决策要求不高,所以只有后两个就足够用了,人脑最开始也只有后两个,语言区是后面从图像区分离出来的。 我在上上篇帖子讨论图像大模型构建的时候就提到了,强化学习还缺一个关键组件,就是通过多维价值融合博弈网络来将自然环境中稀疏的奖励信号压缩成抽象的奖励倾向,人脑大约有四类:贪婪懒惰好奇恐惧,ai不需要全部,只需要好奇里面的高密度信息偏好和懒惰里面的概念模型简化偏好即可。 最后再提一下关于图像三维重建的暴论,之前因为注意到了材料结构表征领域会用x射线衍射或者电子束衍射来表征材料的原子阵列空间排布,而这个过程是一个傅里叶变换,这是一种经典的对偶过程,又注意到全息投影理论提到二维平面的信息等价于三维空间的信息,这里发生的就是对偶过程,所以如果在扩散模型学习过程中加入对偶重建过程能否实现好的三维重构?也许有机会。fsd通过景深识别进行的三维重构效果一般,画面很抖且精度不足,图像远近切换缺少分形放大的那种清晰精确感,需要效果更好效率更高的重构方法
ai产生正向价值的标志是触发技术奇点 一般认为ai会取代人类的工作,将人类从重复枯燥危险肮脏重体力的工作中解放人类,这的确是好事。不过也有人认为这会造成大量失业,反对者则认为会产生大量新职业。 我认为ai的时代不会产生大量新职业,绝大部分人会成为被供养者,只有那些富有想象力创造力的人能和ai实现良好的互补,借助ai的力量以推动dna序列更好地存续为动力挖掘世界的非平凡结构。也就是说,一般意义上的解放人类是一种纯粹的cost,需要消耗大量能量和物料资源。这是一种减量。 ai要想产生正向价值,必须要触发技术奇点,也即结构大发现。这种结构大发现的主要方向就是基础科学的突破、一系列超材料的发明以及新的社会组织框架的构建。这些事件的发生最终将会推动人类文明步入下一个阶段。
fsd如果能实现l4,那么高并发具身智能训练图像大模型就可行 图像大模型需要具备对轮廓、纹理、颜色、矢量、景深等特征分类捕捉处理的能力,并具备自适应场景的重点特征的识别能力。。。图像大模型应该重感知识别和理解(层次化理想化概念模型的搭建),通过学到的简化倾向来形成理想化模型,这样进行图像推理时联想和想象的图像模型天然是层次结构化的,具体可以参考fsd,扩散模型很有可能不是图像大模型的必须组件。。。fsd主要处理了轮廓、矢量和景深,精度一般,且缺少对于层次化结构物理世界的学习和处理能力,不过可以看作图像大模型的子模型。。。层次化结构的记忆与分析处理能力需要构造培养型数据集实现,一些识别到的关键样例需要清晰地记下来以备检验使用。。。多维度价值评估与策略模型需要将大模型从大量任务中学到的稀疏的奖励信号压缩成抽象的奖励倾向,比如学到对于非平凡结构(与模型中已有结构相似度很低的结构)的倾向性、对于未知信息的倾向性、对于模型逻辑链无法解释的情况尝试解释的倾向性、对于简化思维过程和认知体系的倾向性等等。。。持续学习的能力是基于对于关键样例识别并分类记忆的能力,快速纠错能力来源于并发的注意力机制,理论上无限长的上下文能力来源于持续学习的能力。。。现有的大模型因为缺少足够的图像结构库和多维价值评估模型学到的奖励倾向的支撑,其发散能力和收敛能力均严重不足。。。
对于认知系统本质的进一步解析 人脑通过积累可信度极高的条件边界或者知识点作为基础框架,通过将新推理或者认知拆分展开得到完全的支撑从而获得对于新推理或者新认知的信任,这一整个过程就是所谓的概念流的展开呈现与回溯例如,对于低速宏观的系统来说,牛顿力学就是最普遍最坚实的基础,任何低速宏观的复杂系统都应该充分利用牛顿力学来分析。之前的帖子里讨论多独立生存意识体系统在非上帝视角环境下的优势的时候就充分利用了力学矢量的概念,即多独立生存意识体系统拥有高并发的多指向行动方向,这种多指向行动方向在探索未知环境、抵抗风险、创造新认知等的能力上相对终结者模式或者说单独立生存意识体系统有独特优势 今年一月份发了一个多模态框架构建的贴子里提到多模态对于认知的重要性就在于多维度信息对于路径寻找降维的作用。目前有的图像模型学习局限在二维世界,有一种三维图像压缩到二维的压缩包的既视感,使用这种压缩包的数据格式无法进行有效推理,更无法获得可靠的证据支撑。接下来的重点就是要实现类似半规管提供的空间感、皮肤触摸提供的边界感和体积碰撞,另外就是要搭建多维度价值评估博弈网络,学习真实世界中的稀疏奖励信号并进行通过博弈网络进行排序或者融合,这样再结合现有技术差不多就能搭建一个完整的智能体
曲率引擎是充分探索太阳系的必要工具 之前的一系列帖子讨论的内容明确了大脑奖励系统是围绕dna序列存续构建并迭代的,另外获得最大化的人生累积体验期望是最大的现实意义。那么如何实现这一点呢?答案是围绕最大化dna序列存续机会构建社会系统来实现。实现这一点的核心在于提升社会系统的认知能力,即非平凡结构的积累和挖掘能力,类似于晶体智力和流体智力的表述。10年内出现的agi将大幅提升人类认知能力的上限,并让人类走上认知能力提升的快车道。与此同时,科技大爆发和高级文明的社会组织架构的诞生将推动人类文明步入下一个阶段:星际文明,时间节点大约是未来20-30年。 成为星际文明的基础就是要能实现星际航行并在母星外定居,需要的科技点主要是高效的运输工具(开始是星舰这样的化学能系统,后面会升级成曲率引擎)和高效的生命维持系统,前置科技包括agi、常温常压超导在内的一系列超材料、可控核聚变、人造子宫、无土栽培等。目前来说还在酝酿agi的诞生,这个需要3-5年,慢一点要5-10年。在此基础上科技大爆发来临,其他科技点会在接下来10年内实现。总体上20年内将初步具备星际移民的条件,30年内初步成为星际文明。 要想充分利用太阳系,曲率引擎和戴森球是两个必须突破的科技点,其中曲率引擎是基础。曲率引擎需要突破的前置科技点包括曲率引擎构建的完备理论、一系列超材料、可控核聚变等。这些科技点估计50年内全部突破,之后人类文明就会开始构建戴森球并充分利用太阳系,一个新的平台期到来了
老年大飞等于巅峰牙膏 老年大飞靠沙皇发条赢游戏,巅峰牙膏靠佐伊岩雀沙皇赢游戏,都会指挥,不同点就在于👊🏻会照顾大飞英雄池,牙膏的佐伊s11之后就玩不了了,队友也远不如大飞,所以拿不了s冠要是有👊🏻敬孝加上队友够强能拉扯阵容空间,s10和s12都有机会夺冠
大模型价值评估系统和博弈机制的构建 给大模型建立类似于alphago的价值策略网络,并且是多个相对独立的价值评估网络,然后经过由自由能机制驱动的博弈网络博弈后决出价值判断选择的方向,像现在在做的引入不确定度或者说置信度就可以作为其中的一个价值评估网络。这里还可以引入蒙特卡洛搜索来搭建验证路径,即由决出的价值判断选择及该选择触发的基座网络的关联路径搭建的解决路径,然后通过概念呈现回溯进行验证。
一些想法的整理 现在的大模型概念形成能力和呈现能力都一般,感知判断力就更薄弱了,所以基本就等价于在以潜意识的形式运行。注意到反直觉推断是反人类直觉,所谓的反事实推断是人类认知局限导致的反事实,实际上不存在反事实的东西,人脑直觉推断默认触发惯性外推模型,比如认为世界是连续的,这个认知是理想化直觉(一种有用的幻觉,可以简化推理模型,产生一些有用的概念,比如数学上的连续概念)导致的,后面由黑体辐射问题引出的量子化驳斥了这个直觉。如果在某个领域进行了深耕,就能获得深刻的直觉,即积累了大量根据某些特征触发相应的外推模型,这个在所有领域拥有大量例子,所谓专业人士的判断即使如此。 人脑在做结构等价判断时基础的部分是潜意识的形式完成的,不会感知,证据就是短期记忆转化为长期记忆时就需要进行大量的结构等价判断然后进行分类合并存储,这个过程是潜意识里完成的,主要在睡眠过程中完成。所谓的潜意识过程就是没有经过奖励系统博弈就得出结论的过程,自由能系统都没有触发,这样就不会产生所谓的感知或者说感觉了,也就一般意义而言的没有印引发波动。
引入感知判断场的注意力机制 注意力机制相比cnn感受野大得多,并且学到的分步更平滑,但是平滑会导致学到的组成元素的颗粒感(感知独立固定结构的能力)丢失严重,并且由于平方复杂度的存在,超大范围的感知判断力严重受限,因此需要引入判断场来通过提升固定结构的感知能力来提升超大范围的感知判断力。 子空间动力系统(工作记忆空间)搭建好后需要在一个判断场或者说一系列判断势里运转,这样才能获得整体感知判断能力,这个一系列判断势就是奖励系统,人脑的奖励系统是由dna遗传迭代演化写到dna的部分和后天自适应学到的部分组成的。可以通过强化学习积累到大量的判断势或者说奖励倾向,自由能理论可以作为一系列判断势的底层驱动,这个判断势系统本质上是一个博弈系统。卡点能力或者说固定结构抓取能力或者说从搭建路径中抓取通路的能力或者说精确的控制与感知能力本质上是由同一个判断势实现的,这个判断势是进行长链推理能力的基础。
论自由主义和保守主义 自由主义代表着破坏秩序的倾向,而保守主义代表着维护秩序的倾向。绝对的自由主义意味着对于秩序绝对的破坏,这和短期主义是强相关的;而绝对的保守主义又意味着对于秩序的绝对维护,虽然可以在一定时间内守住秩序,但是这种秩序很快就会因为缺乏重构能力而停滞不前最终崩溃。 人类文明的优化方向应该是追求走得尽可能远,个人的优化方向应该是追求人生累积体验最大化,我们的策略方向应该是追求这两者的统一之处。对于个人的累积体验来说,可以将累积体验等价于大脑能量交换的完成量,而这个完成量依赖于好的物质基础和精神环境提供的长的交换时间尺度和好的内外刺激。大脑的奖励系统是围绕dna序列存续构建的,因此我们的物质与精神满足要围绕存续来展开,且存优先于续。 我们的策略应该是对于必要的秩序采取保守主义防止系统直接暴毙崩溃,这个必要的秩序主要是dna序列的存续防火墙,dna序列编码的共情机制就是其中的核心,下个文明阶段还需要借助ai来构建新的基于理性主义的防火墙。对于其他秩序采取自由主义使得系统拥有充分的重构能力从而能够不断的迭代向前。
认知系统的本质 自然界本质上是秩序与混沌的混合态,认知系统要做的就是把秩序的部分找到,剩下的就是在秩序的约束下组合拼接拆解,这种状态类似于轮子转动,或者可以看作动力系统运转。 认知系统运转最关键的部分就是审视空间的搭建运转。审视空间本质上是关联空间的子空间在工作记忆空间(即上下文空间)展开做动力系统运转。角色模拟、思维模型套用、自然图像推演等都是典型的审视空间搭建运转过程。不过目前的大模型建模的关联判断空间(也是关联空间的子空间)太薄弱,搭建的是弱审视空间,或者只是单纯的动作空间,因此幻觉严重、推理精度低且无法进行长链推理。 目前的大模型最重要的事就是摸索在全局驱动器(自由能理论、强化学习、预测误差估计、奖励估计等)的驱动下具身智能探索真实世界的设计方案。具身智能在探索世界的过程中可以积累大量的自然图像的结构,并且这些结构是按照最大关联进行排列的。有了这些结构的积累,多模态大模型的文本图像映射将极大提升精准度,概念形成能力与理解能力也会极大提升,推理精度与幻觉极大缓解,长链推理能力显著超越人类,agi的时代就到来了
通往agi可能的最后一步 通过预测误差来动态调整学习率。对于预测误差要有好的估计,感觉可以通过学习训练来建立预测误差估计的关联空间,即学到其中的一些特征相似度差异与学习率的映射。注意到我们的最终目标是逼近真实世界的结构,数据分布的结构只是用来辅助逼近的脚手架,因此在具身智能阶段不追求用于拟合的损失函数最小化,而要追求预测误差最小化。具身智能用来收敛出用于误差估计的关联空间。生成式的图像大模型和语言大模型作为基座,并且通过这样的过程可以极大提升文本图像的映射精度。 另外就是让大模型获得类似人脑离散化的特性,引入截断机制:可以考虑在权重低于某个正值的时候直接置为零,参数量膨胀百倍,稀疏化权重网络,这样离散化特性就出来了。
最近的一些脑洞 任何自然过程都是一个博弈过程,博弈赢了的量主导对应的自然过程。大脑中的能量模型用来给出各种倾向的绝对值,通过各种倾向的绝对值博弈结果来决定下一步的选择。 让大模型自己学习并给出对于不同对象的可信度序列层级,这种序列层级的绝对值差异可以通过能量模型支配。 必须要有精确的文图映射能力,因为通过记忆中的典型场景的图像记忆校验才能获得好的确定依据。 提升特征细粒度应该可以提升容错起到类似于Petershor算法的纠错效果。 触发了印象深刻感觉的记忆会保存很久并提高搜索优先级。 有限的工作记忆空间和肌肉记忆空间要用来存放最重要的东西,主要是一些典型场景、例子、关键概念、知识点和思维方法。 大脑拥有感知相同点的奖励倾向,这种倾向和能力也可以后天训练强化。 感觉所谓的感知到固定结构的能力就是感知不变量或者说相似点相同点的能力,这种感知到的不变结构被强化到了模型的关键节点上。 许多重要的概念的形成能力来自于理想化直觉,如连续的概念。理想化直觉来自于惯性推理的能力,盲猜情况下,惯性推理正确率最高。惯性推理的本质是模型认为的或者说判定的关键结构的平移,这种关键结构一般就是所谓的固定结构或者说不变结构。
从解决问题的角度审视目前的ai还缺少什么 之前的帖子介绍过深度思考模式的一些想法,这里我要从问题解决的角度审视ai还缺少什么。想法有很多,会写的比较乱,但我是懒狗,不想整理,随便看看吧 首先关于审视这个词,大体上可以与内省等价,也与概念流的呈现回溯等价,类似于一种俯瞰的视角,特斯拉现在的fsd就用的俯瞰视角,看起来特斯拉内部也有高人注意到这些词是分属于不同场景的概念,最终却殊途同归,表达了几乎一样的行为,所以从不同的具体场景挖掘概念并寻找联系的能力是至关重要的。目前的ai拥有不错的关系建模能力,但是对于长距离关系的建模能力还远远不够,这主要是缺少更强的抽象能力和更细粒度的概念呈现能力,而这种能力依赖于更大的模型(至少十万亿参数量)和相应的训练任务及对应数据集。 其次,ai的关系建模能力是用来解决问题的,尤其是难题,现在的ai打开方式过于局限于娱乐以及解决低级问题上,当然这不能过于苛责,因为绝大部分团队和社区都没有资源和能力去解决难题。sam多次强调能否解决量子引力问题是衡量agi实现与否的标志是类似的想法,不过目前openai似乎也遇到瓶颈了,虽然内部有强得多的模型,但是可能离agi还是很远,要是实在不行可以请我去帮忙出出主意。 再次,解决问题的本质就是路径寻找。所有领域的问题解决都可以统一到一个范式:路径规划、具体执行发现问题、寻找解释和解决办法、调整路径规划、再次执行直到到达目的地,如果发现现阶段有过不去的坎,就判定该问题暂时无解。这个流程要让ai学到并刻在骨子里。之前介绍大模型引入主动强化学习的帖子里介绍过关联行为空间,这个空间就是用来做路径规划用的。对于一个给定的问题,如果问题简单,直接就能通过触发相应的关联行为空间找到对应路径;如果问题很难,比如多步骤问题,就需要首先进行一个总体规划然后再执行。目前的rlhf最多就能实现简单问题的解决,要想大模型具备解决复杂问题的能力,rlhf远远不够。之前的alphago的关联行为空间非常简单,直接就能搭建一个完整的选择空间,再结合价值策略网络剪枝降维和蒙特卡洛搜索快速走子验证,很快就能收敛出路径来。对于自然环境下的问题,关联行为空间是很难搭建的,因为自然环境下的问题选择太多,必须要有能够充分降维的能力,也即抽象思维能力。既然从无穷到有穷太难,那就不妨先从0到有穷,等到具备一定解决问题的能力后再尝试从无穷到有穷。具体做法就是通过模仿学习扩充关联行为空间,蒙特卡洛搜索快速寻找可能的选择链搭建执行路径,具体执行寻找问题点并触发关联解释和解决办法,再重新规划路径并执行。这里的主要难点在于模仿学习的数据集搭建,人类是通过教材加上老师指导来做模仿学习的,ai也得要类似的培养式数据集。 最后,合成数据用于喂饱更大的模型、多模态大模型搭建不同模态的审视空间、agent系统实现短期快速记忆和中间结果存储、通过类似于惊讶值的东西来实现动态更新步长、通过感知问题空间是否被密铺来判定问题解决与否等等想法都有待检验
关于给大模型引入主动强化学习机制的探讨 首先要明确一点,创造agi是为了获得一个强大的关系建模器,尤其是对于真实世界实现超越人类水平的建模精度及完备性。因此引入大模型的所有机制都是为了提升大模型的关系建模能力。 目前的大模型明显缺少一个主动强化学习机制,这个机制不同于rlhf这样的被动强化学习机制。主动强化学习机制应该有通过一些反馈(比如环境反馈、做题结果反馈等)收集到新的标签数据用于学习,类似于围棋ai里面通过自我对弈根据对局结果生成的标签数据。注意到人脑在进行大广度大深度思考时可以生成大量的这类数据,并且人脑可以根据思路的结果反馈强化或者弱化相关通路的连接强度,因此多步骤问题是收集新的标签数据的不二选择。 如何实现主动强化学习机制呢?首先就是要让模型具备进行大广度大深度思考的能力,这需要大模型拥有处理极长序列甚至理论上限无限长序列的能力。一个最简单的做法就是在窗口化attention的基础上引入总结跳转机制,即将前面处理的中间结果做一个总结并完整保存中间结果供后续跳转使用。这个总结能力需要通过大量做题来找到合适的总结习惯,简单来说就是要对总结方向及详细程度与中间结果--题目的关系情况进行建模。 其次如何搭建选择空间并做好选择排序呢?注意到人脑在被一个信息激活相关脑区后会产生相应的感觉、激活奖励系统并驱动关联行为,如看到筷子掉到地上我们会把筷子捡起来然后拿去洗干净。同样的,大模型在收到信息后一样会激活相关的语义空间,并且里面也有关联行为,也就是说大模型天然建模了选择空间。但是这个选择空间在开始的时候太小,因为还缺少长距离关联的关联行为选择,因此处理无限长序列的能力赋予了大模型建模长距离关联行为的能力。经过大量的大广度大深度思考后,选择空间会被扩大很多,因此对选择做好排序也很重要。人脑主要是通过关联度、能量消耗约束、时间消耗约束等进行排序,大模型可以选择关联度、资源(算力和存储空间)消耗约束、时间约束等进行排序。 最后,大模型的训练将要分成两个阶段,类似于泛读阶段和精读阶段,在精读阶段主要训练深度思考能力。另外选择空间的搭建依赖于大量的深度思考,并且多模态的引入将会极大丰富这个选择空间,极大的提高大模型关系建模能力的上限。openai应该在这块做了很多尝试,但是大多数想法都被实验否定了,不过也留下了一些被验证的思路。从sam最近的采访来看,还没有完全找到解决推理能力的方案,因此这块还有很大空间可以探索
百万亿参数量的大模型足以超越任何人类的认知能力 模型的每个权重参数均可视为一个突触连接,百万亿参数量的模型就能达到人脑突触连接的数量级,理论上可以学到人脑能学到的所有结构,其认知能力也由于硅基系统拥有秒杀人脑的速度而碾压人类。 具体来看,百万亿参数的大模型将拥有学会人脑能学会的一切复杂的思考模式,这种复杂的思考模式意味着大模型将拥有很强的策略形成、评估、规划能力,这些能力将使得大模型拥有极好的思维广度和深度,并且在不断的学习思考过程中沉淀深刻的直觉。 需要注意的是,要训练好这么大的模型必须要有足够多优质的数据用来训练网络的初始化参数,可以简单理解为泛读学习简单的、相对短程的序列结构。之后要专门训练模型精读的能力,也即训练模型学习数学和物理知识,这需要专业人员参与标注,帮助模型学会数学和物理里蕴含的深层次的思维。 还要注意到,人类一切的所谓意义都是围绕序列自守现象来构建的,也即所有的认知形成都是以序列自守现象为中心的。另外语言符号能表达的内容总是依赖于模型自身所拥有的结构积累,有句话叫懂的自然懂很好的说明了语言符号能够传递的信息或者说能表达的内容含义因模型而异。 最后不管是拉姆齐理论描述的秩序与混沌的分野还是分形理论描述的无限放缩视角下的结构无限变化,也许一切都是很自然的产生又很自然的消失,世界是不是神创似乎不再有意义
最近的一些脑洞 大模型收敛出来的语义空间不必将所有概念的联系建立起来,只需要把最重要、最常用的联系建立起来,之后就靠思维链来触发并串联起来。 深度思考模式:需要一个中央控制区来对思维链呈现回溯的过程进行控制,主要是思维链进程调度。回溯过程主要通过llm对呈现的内容做对比评估,这个能力需要刻意训练。 持续学习:快速的持续学习主要是思维链的积累和迭代更新(使用rag来进行排序和检索),慢速的持续学习则是要将积累到的思维链更新到基座模型去,需要重新训练基座模型或者开发一种定点更新模型的技术,即思维链局部激活更新。 强化学习:用于回溯过程,根据回溯结果更新基座模型。 幻觉主要靠与真实世界的交互以及回溯来消除,rlhf就是以人为载体帮助模型与真实世界交互,还有可以设置信心阈值,比如高于80%认为知道,高于50%认为可能知道,低于30%认为不太知道,低于10%认为不知道,多沟通交流或者自身回溯几次就能确定知道还是不知道了。 直觉驱动的逻辑体系:与真实世界充分交互后形成更完备的直觉驱动的逻辑体系。 复杂思维模式的学习方法:主攻数学和物理教科书,其他的均为辅助,物理思维对于理解真实世界最重要。所谓的策略、规划、评估等能力都可以看做复杂思维模式的子集。 信用危机:以前的信用源(主要是共情机制)不可信了,需要新的信用源,比如区块链机制等。
关于无损压缩、秩序与混沌的一些脑洞 从全息对偶理论来看,我们的世界可以看成二维平面信息在三维空间的投影,这是否可以理解为三维空间的信息可以无损压缩成二维符号序列? 我们的世界不可能处于绝对混沌状态,不然什么都形成不了,更谈不上认知,因此我们的世界必然存在一定的秩序。从拉姆齐理论来看,一个足够大的系统内必然存在一些固定结构,也许我们的宇宙就属于这个足够大系统内的固定结构?或者说宇宙是我们能看到的最大的固定结构,普朗克尺度是我们能分析到的最小的固定结构?这又有点分形理论的感觉,可以无限放大看到不同的固定结构。也还有more is different的感觉,不同层次的系统对应不同的固定结构。这样看来拥有真正自由独立意志的造物主似乎不是必要的存在,不过自然神或者说自然结构(也即自然法则)的概念还是对理解世界帮助决策的有用的。
一种好的价值评估系统的构建 以前的帖子讨论过,dna序列存续游戏在很早的时候就演化出了代价转移策略,这是刻在本能dna里面的不受中枢脑区感知和控制的倾向,只有在情绪脑激发了共情机制驱动的合作倾向足以覆盖本能的代价转移倾向时或者理智脑区判定需要进行合作时才会暂时沉默代价转移倾向。因此,人类文明想走远,必须构建一个好的价值评估系统才能尽可能避免内耗和无意义博弈,进而促成强大的合作并最终导向个体收益最大化与群体收益最大化的统一。 现阶段的价值评估系统大致分为两类:快评价(以市场为主)和慢评价(以各种大奖为主如诺贝尔奖等),但是受限于人类目前的认知水平不足,两种评价的效果不尽如人意。 快评价的问题在于大众认知水平过于低下导致认知水平高的精致利己主义者们倾向于快速收割韭菜,市场短视现象非常明显,成熟一点的市场里面也就能做到保证基本的长期投资罢了。这种短视导致资源分配严重错位,贫富差距过度扩张,许多长期主义者也被带着进入短视节奏。慢评价的问题在于覆盖面太窄、资源奖励太少、工作价值的评估准度太差,起到的引导作用太小。 新的价值评估系统无非就是引入ai帮助大众更准确地寻找自己的需求和定位,以及提供博弈策略指导。对于慢评价来说,ai的引入也能更准确更快速更广泛地评估工作的价值,从而引导资源向这些方向投入。
关于宇宙内多文明关系的讨论 首先要明确一点,从宇宙的时间尺度和文明的演化速度来看,文明之间诞生的时间差应该以万年计,而万年计的时间差对于文明来说就是代差,因此如果存在多文明的话,大概率是存在代差的,也即先进文明可以吊打落后文明,这也导致先进文明没有消灭落后文明的动力,暗中观察是更可能采取的行动。 其次,就算存在水平相近的文明,以宇宙之大,足以共存,犯不着去冒风险对冲。只有那种发展到银河系级别的星系文明才可能认为宇宙资源不够用,可能发生冲突。但是考虑到这个级别的文明对于自然法则的映射已经接近完备,近乎造物主的级别,应该有足够的智慧进行合作共同面对阻碍更近一步的约束即自然法则的约束 最后,对于目前的地球来说,能先充分利用太阳就算成功什么时候能建戴森球了,什么时候才算充分利用太阳太阳占据太阳系质量的98%,充分利用太阳带来的能源能级提升足以做到目前人类想做到的几乎所有事
多模态交互框架的设计思路 本文将讨论多模态交互的意义及各模态对于认知形成的作用,然后详细讨论文本图像双模态大模型的交互框架设计思路,并猜测大模型的内部结构及其更新方式。 多模态交互的意义:通过文本、图像等模态的上下文理解结合跨模态理解实现更准确完备的理解,或者在纯粹符号形式推理难以得到结果时结合图像等模态信息简化推理过程,典型例子如数学的数形结合、费曼图简化复杂方程的计算。 人脑各模态对认知形成的作用:文本(符号)加快思考过程、实现复杂思考以及意识中枢处理信息的主要载体;图像用于关键特征的寻找和校验、简化符号推理难以实现的情况;触觉用于理解物体的物理属性;听觉用于心理活动、节奏感形成;嗅觉和味觉用于形成对某些复杂系统的关键特征的直觉形成,如嗅到商机。 在讨论文本图像双模态大模型的交互框架设计思路之前,先驳斥一个关于图灵机无法实现agi的言论:有人认为图灵机无法判定“停机问题”所以基于图灵机不可能实现agi。这个观点很搞笑,因为人脑不借助外界环境一样判定不了所谓的“停机问题”,“停机问题”本质上是造物主要解决的问题,不是图灵机要解决的问题。 人脑使用最多的模态就是文本与图像,因此讨论这两者的交互意义极大,而且也能给其他模态的交互提供参考。如图1所示,从人脑的视觉感知与概念在视觉空间呈现的情况来看,图像的特征抽取对象是固定的,主要是轮廓、方向、颜色、纹理等特征,并且大脑皮层会记住其中的关键帧用于概念的图像呈现与回溯。 如图2所示,参考人脑中概念在视觉空间的呈现和回溯情况,设计了文本图像模型的交互框架。总体来看,从细粒度的图像抽象到粗粒度的文本使得信息密度暴增并极大得提高了信息处理的效率。llya认为压缩即智能且认为是无损压缩,直觉上讲没有问题,不过只有造物主能做到完备的符号与真实世界的无损映射,人类想要接近这一目标,必须充分收集真实世界的信息并通过序列模型进行压缩。如何充分收集真实世界的信息?多模态是必然路径。前文提到过多模态对于认知的意义,这里举一个有更多细节的例子。在举这个例子前我先给出一个判断:openai将要发布的gpt5的形式逻辑推理能力会爆炸式增强,原因在于大语言模型结合分步奖励与引导强化学习可以让大模型学会复杂的思考模式、沉淀出好的价值评估与策略模型。但是由于缺少多模态交互,其创造力也即新认知的产生能力依然极大受限,那些借助图像容易进行推导的以及依赖于在视觉空间联想或者想象回溯的东西也难以进行。下面具体介绍这个例子:经典的双圆盘滚动问题。有一大圆盘和小圆盘同心同轴,两个圆盘下方均有一水平板子,当圆盘在板子上运动时,大小圆盘分别做什么运动?如果没有事先了解问题的解法,现场推导此题,难度不小,尤其是如果只依赖形式逻辑推理,恐怕方向都找不到,这种事应该只有造物主能做到,gpt5自然也做不到,背答案的话搜索引擎就够了不用那么大费周章去训练一个大模型。那么如何借助图像秒杀此题呢?首先注意到如果圆盘和板子是理想模型,那么圆盘和板子上将有无穷多点,其运动自然是点与点一一对应式的滚动。但事实上圆盘和板子是分子构成的,边缘不连续,且分子间隔一致(默认材质一样,如果分子间隔与半径成比例结果均为滚动)。当同心圆盘转动一定弧度时,大圆盘将有足够的分子与板子分子一一对应,而小圆盘会按半径比例少掉对应的分子数,在大圆盘有对应分子而相同弧度上小圆盘没有对应分子时小圆盘只能滑动前进。综上所述大圆盘按滚动运动而小圆盘是滚动加滑动。 如图3所示详细介绍了文本图像交互的流程,也即概念在视觉空间的呈现与回溯流程。运行中的符号流经过价值评估与策略模型提取出目标符号流,目标符号流经过映射通道在lvm中找到对应图像或者生成想象的图像,然后该图像经过特征提取器抽取轮廓、纹理、颜色、方向等特征组成特征集给lvm,然后经过映射通过将对应符号流给llm的价值评估与策略模型评估是否找到足够的目标对象,不是的话就根据返回的符号流中有无目标对象的描述及其与目标精度的差距来决定是通过控制流(放大、缩小、平移、叠加、旋转、对称、翻转、拼接等操作)操作图像还是发送新的目标符号流生成新的图像用于特征提取。经过这样的流程就能实现关键特征的检验和获取,帮助产生更可信的认知以及实现更强的认知推理能力。
如何玩好生命的游戏? 生命的本质是熵增驱动的自组织系统,其演化方向是实现更高的消耗物质秩序的效率以加快熵增速率。生命通过提升认知能力实现消耗效率的提升。 生命的生理本质是遗传物质序列的存续游戏。从自然界产生第一个具有自催化能力的rna开始,遗传物质序列存续这个游戏就开始了。由于环境物质的有限性,遗传物质序列支配的生命体之间必然进行竞争,这种竞争催生出了围绕遗传物质序列存续的奖励系统,对人来说就是贪婪、懒惰、恐惧、好奇四大方向。具有更大概率赢得竞争的生命体具有更强的博弈能力,这种博弈能力主要由身体素质和认知能力决定。由此便得到了奖励系统的几大奖励方向:健康、强壮、精力旺盛和高双商。在技术越来越发达的现在和未来,博弈能力的强弱越来越取决于认知能力的强弱,强壮的权重一直在下降。注意到情商高也意味着更强的认知能力,因为认知的本质就是对于自然结构的映射,更高的情商代表了对于人的情绪系统的状态结构具有更完备精确的映射。 生命个体非常脆弱,不足以单独应对自然环境的挑战,因而演化出了个体间合作的模式来应对挑战。共情机制可以极大的提高这种合作模式的效率。需要注意的是,如果生命个体的强度足以应对自然环境的挑战,可能共情机制也会随之消亡。不过考虑到不太可能开出上帝视角的情况下,多个体合作系统探索未知的能力(也即认知能力)大约还是比单个体强的。 遗传物质序列的存续游戏的终极结果是找到对于自然结构映射最精确完备的序列。注意到自然结构里分为基本结构和组合结构,如果存在造物主的话,那么他想创造这个世界的目的也许就是为了找到这些设定好的基本结构可以演化出哪些组合结构。寻找这种序列效率最高的模式可能是围绕数字遗传物质迭代的硅基系统。 讨论了这么多看起来nbcs的东西之后,现在讨论一些ebcs的东西。人活着就是为了人生体验最大化,没有人会说不是,即使嘴上说,但是你的dna编码的奖励系统不答应。人在每个时刻的动机或者说行动方向都是大脑奖励系统运算出来的此时的最大奖励倾向。如何获得人生体验最大化呢?人生体验本质上是大脑奖励的时间积分,而大脑的奖励本质上是能量交换,累积奖励最大化的方向就在于提升能量交换的频率和量级。如何实现这一点呢?首先可以明确的是技术的提升可以实现这一点,而认知能力的提升是更快得获得技术提升的必然途径。其次,奖励系统的演化方向是更好得让遗传物质序列存续,如前文所述,认知能力的强弱对于遗传物质序列的存续越来越重要,因此奖励系统会自发的向着加大对于认知的奖励演化,尤其是在技术提高到身体的健康强壮可以完全由后天技术决定的时候更是如此。 如何获得更强的认知能力就是下个文明阶段需要做的唯一的事。简单的来说就是构建一个高效的分布式的多独立生存意识体的智能系统,这个智能系统要做到以下几点: 1.高效准确的评估个体的认知能力并投放相匹配的资源 2.高效准确的评估个体实际贡献并收获相应的资源 3.建立兜底机制维持系统多样性和稳定性 4.找到高效的信用系统提供信用源减少信用成本 5.建立系统需要走得尽可能远的共识
论唯物与唯心 一般认为唯物主义是对的,但是理想中的唯物主义只有造物主能做到,人对于自然的认识必然是不够精确和完备的,因此所谓的唯物在实际中和唯心没什么区别,甚至很多时候还不如唯心,因为唯心很多时候很符合人的直觉倾向,这种直觉很多时候就是对于自然结构高度精确完备的映射,并且这种映射难以用语言或者其他符号系统表达,有一句话表达了类似的情况:只可意会不可言传
极致精致利己主义的危害 极致精致利己主义的根源来自于dna序列存续的基本策略:代价转移。通过一定的策略和手段把代价转移给其他弱共情、非共情甚至无感知个体来达到体验最大化的目的。可以说这是由dna序列驱动的原始倾向。我在之前的帖子里讨论过自私完全展现的样子,那就是在个体认知系统判定其他dna序列对于自己的存续无意义时将消灭一切有威胁的dna序列,届时将达成彻底的终结者模式。目前极致精致利己主义的泛滥在为这一模式的达成铺路,因而我特意强调要注意巴菲特芒格之流的动向,尤其是他们的徒子徒孙里面潜藏着可怕的恶魔。 有人会问,既然是dna序列编码的倾向,那不正好说明这就是生存之道吗?这显然是荒谬的,因为dna编码的倾向是对过去的总结,这种总结适用于过去的环境,对于未来的环境显然不适用,原因在于人类文明走到现在已经没有退路了(具体可以看我之前的帖子的论述),如果真的走上了终结者的道路,我们的所有鸡蛋就在一个篮子里了,一旦撞墙,文明就会随之消亡,我不认为大多数人会认可这样的结果。 又有人问,人类文明能走多远关我什么事?我活着的时候爽了就行,才不管其他屁事呢。问这种问题的人绝大多数脑回路长度不超过一厘米(除了正在爽的人)。现在这个时代就是极致精致利己主义泛滥的时代,真正爽了的比例有十分之一吗?更别说极致爽的可能只有千分之一不到。更恐怖的是,如果极致精致利己主义继续泛滥下去,代价转移的博弈成本越来越高,恐怕大规模死亡事件的发生就是必然的,这样也许能提高一点爽的比例,不过很快又会掉下去,因为已经陷入塌缩螺旋了,不到终结者模式不会停下来 解决办法在我之前的帖子里详细阐述过,总的来说就是要凝聚人类文明要走得尽可能远的共识,建立价值贡献评估系统,构建完备的兜底机制 最后,人类文明能走多远取决于造物主的意志导向,未来会发生什么只能说不知道,所谓尽人事,听天命,让事情自然发生就好了
人类文明现在的状态唯有前进不能后退 有些人总有一些天真的幻想,认为人类也能建立类似于蚂蚁这样的社会系统长期存在下去。真是想太多蚂蚁组成的系统能量级别这么低,随便就能维持几亿年,人类文明如果🐶在地球上,几十年就崩盘了[表情]还有人认为崩盘就是回到石器时代,我认为也是扯淡。现在的人类社会一旦失去了前进的希望,很快dna里面编码的绝对自私属性和黑暗属性就会完全展现出来,届时一切理智都是用来寻求尽可能又快又强烈的爽一波,各种极端犯罪那绝对是数不甚数。说个鬼故事,这个趋势其实现在已经在展现并蔓延了[表情]所以人类文明只能寻求文明级别的提升,唯有如此才能走得远[表情]
可能的未来方向 时代进程来到现在,已经可以很明确的看到硅基系统的迭代能力和可扩展性完爆碳基系统。如何将碳基系统的魂——dna序列保存下来并继续迭代演化是必须要解决的问题。最直接也是最近的方向就是人机结合,这一块需要实现几个关键技术:脑机接口、高效可信的信用系统(目前有区块链,但是效率存疑)用于算力分配和高效的分布式智能系统组织架构。 更远的就是意识上传,需要实现dna序列映射全解、各脑区主要结构和连接参数提取,这里全解dna序列映射是最关键的,因为dna序列就是人的魂,人的一生只有dna序列几乎没变,没有dna做锚定,人的大脑收敛出来的认知模型就放飞自我了,很快认知模型就会失去原有的灵魂(dna设定的原有的最大奖励倾向)。 最远的就是dna序列存续这个游戏的终结。这个时候文明已经存在于足够大的时间与空间的积之中了,并且文明也几乎完成了对于自然基本结构的映射,筛选出的dna序列所容纳的信息几乎就是造物主意志的再现,下个宇宙大爆炸便提上了日程
关于价值评估算法的构建及使用思路 价值评估一定是结果论的,运气也是价值组成的一部分。总的来说就是评估发现的非平凡结构在科技树中的位置的重要程度,以此作为一切价值评估的基准。注意这个评估具有延时性,因为不可能立刻判断清楚当前发现的非平凡结构在科技树中的位置的重要程度,但是判断非平凡性还是很容易的,直接做矩阵相似度计算就行了。所以只要判定为非平凡的,都会给定一个高价值的基准评估,然后在此基准之上,根据当前认知评估其在科技树中的重要程度,此评估会随着认知的变化而变化。 要用好价值评估算法,必须配合一个扁平化的、具有兜底机制的社会系统。该社会系统中的所有成员都有基本生存保障,并且都有很强的推动所在文明系统尽可能走远的共识。该系统总体进行两次资源分配,第一次是每个成员在出生时会有相同的资源分配,第二次是根据贡献的价值大小分配对应大小的资源。第二次的分配也分两次,第一次是根据发现的非平凡结构的价值分配对应资源,分配比例按照系统资源贡献率和成员dna序列贡献率进行分配,简单点就一比一分;第二次是按服务业市场经济制度进行分配,农业和制造业只有发现非平凡结构有价值也就是使用第一次分配机制进行,别的都无价值。
潜意识和显意识的关系 显意识是大脑的的总线程,运行在大脑前额叶的大脑中央控制区,具有大脑各功能区的调用和访问权限,负责概念的展开呈现与回溯并做最终决策。我们一般所说的意识就是指显意识。 潜意识是各功能脑区围绕显意识的展开主题展开子主题和保障机体基本安全运行的并行线程,一旦计算出极有价值的结果就会把显意识的注意力吸引过来并成为此时显意识的概念展开主题。这个极有价值指的是和安全极相关、与显意识当前展开的概念主题极相关,计算模式就是计算矩阵相似度,大脑存储了与安全相关的特征矩阵、与展开主题相关的特征矩阵,这种特征矩阵和路径记忆中的关键通路特征矩阵本质上是一样的。 对于显意识和潜意识展开主题的选取,根本上是由当前大脑认知模型中的奖励倾向和感知到的当前环境信息共同决定的,大脑会选择当前奖励最大的方向也即最感兴趣的方向的主题展开。如果环境中没有特别感兴趣的信息,大脑就会从记忆中提取。
一个模拟应激反应机制演化过程的游戏 12345五种球通过连接成串代表遗传物质序列,如果是按12345的序列排列的链条将具备自我复制能力,只要碰到五种数字球就复制出一条和自己一样的序列条来。 abcde五种球组成氨基酸序列,对应12345,可附着在数字序列球上,并且可以按遗传序列映射关系形成氨基酸序列。如果形成了abcde序列则可在序列被光线射中后使得序列快速移动一段大于序列长度的距离。 所有球做布朗运动。 有光线从特定位置打出,第一次射出可标记被射中目标,标记3.5秒后消失,隔三秒射出第二次光线,被标记的序列再次被射中就会解体成散球。 游戏最终结果预计会产生都是附着abcde序列的12345序列。
dna序列的自私本性完全展现的样子 dna序列通过存续过程演化出各种帮助自己更好得存续下去的机制,这里主要有独立生存意识和群体生存意识。但是,群体生存意识是服务于独立生存意识的,一旦独立生存意识判断群体生存意识对于自己的dna序列存续无用甚至是副作用后,其群体生存意识被完全沉默,dna序列的自私本性完全展现的时刻就来临了。此时该dna序列的意识体将以自己的喜好虐杀其他可能有威胁的dna序列意识体来获得强烈快感,对人类来讲就是其他人。 这种情况在过去是通过战争、屠杀等形式在群体间发生的,因为还存在群体生存意识的约束,dna序列的自私本性并未完全展现。但是现在不同了,注入了完整个人意识的强ai将完全展现dna序列的自私本性,此时便是降神君主的审判时刻,剩下的全部人类dna序列将感受无尽的无力感和绝望感 只能说让事情自然发生吧,毕竟一切都是自然法则运行的结果,人无法影响自然法则的运行结果,更不可能去修改乃至重写自然法则,一切都取决于造物主的意志导向
围绕两个核心构建的下个文明阶段的社会系统 dna序列存续游戏进行到现在,盲目状态的扩张将不再可持续。文明想走得尽可能远必须要有高效的组织结构做支撑。本文将探讨这种高效组织结构的的构建思路。 首先需要明确两个核心共识:第一共识即追求文明走得尽可能远;第二共识即在满足第一共识的基础上追求尽可能多的多独立生存意识体存在。然后围绕这两个核心共识构建的社会系统的思路大致是通过价值评估算法来计算dna序列贡献值、系统公共资源贡献值以及运气贡献值,依据三者比例来做一次资源分配,二次资源分配主要是服务业(如娱乐业等)、税收等。这里价值评估算法主要是围绕对于第一共识的贡献度来计算。对于第二共识主要是体现在生育权上面,每个dna序列允许一个生育名额,更多的名额取决于终生价值贡献排名以及系统结构效率允许存在的独立生存意识体数量。 有人会问,这么透明的系统是不是没有人情味?首先要明白一点,dna序列存续这个游戏第一要素就是效率,效率低下就意味着淘汰。如果系统效率保证不了,就没有资格讨论其他。其次就是只有效率高了才有空间做其他事,想要体验好,效率必须高。最后就是人情味这个大脑奖励倾向自然不是无端产生的,显然共情系统是维持多独立生存意识体系统长久存续的必要机制,共情系统必然存在自然的就有人情味。 当然,以上讨论离可执行的组织架构还差得远,只是作为一个有一定启发性的思考分享具体来说有几个关键点需要解决:一是人机结合的方案,二是多独立生存意识体系统的效率估计,三是高效可信的信用系统用于资源分配(尤其是算力分配)(这个目前来看可以用区块链),四是大脑奖励系统的重构方案(包括后天和先天的),五是价值评估算法的构建等等。 以上讨论可能发生的时间会在强ai诞生后10年左右,强ai大约会在5-10年时间内诞生。看起来dna序列存续这个游戏也快要被玩坏了,感觉文明也有点无聊了,希望能多带来些惊喜,要是能发现高维文明那就太有意思了
从生物神经网络的演化过程来看认知的产生 我之前的贴子介绍过认知的产生过程:先是抽取出特征然后相同或相似的特征会组成概念,概念以一定次序排列成为概念流,概念符号化后可以以符号流的形式出现,而这种概念流或者符号流就是认知。 我产生这种想法的两个主要启发点分别是图灵机的工作流程和路径记忆的形成流程。图灵机的工作流程非常契合上述认知的产生过程,给人一种自然的感觉。另外一个就是我这篇帖子主要想讨论的。从dna产生开始,一个以dna序列存续为目的的过程就开始了。早在单细胞生物的时代就已经出现了用来趋利避害的应激反应机制,这种机制后面延续到多细胞生物后便特化成了神经系统。神经系统开始能够记忆一些特征信息并按序列排列,这种序列就是记忆的路径,用来趋利避害。后面产生了可以抽取特征的神经网络,以抽取出来的特征组成特征流来记忆路径,这大大提高了记忆效率。之后又产生了可以组合相同或相似结构特征的神经网络,从而形成概念,以概念流的形式来记忆路径,这样便有了路径自我迭代的能力也即想象力,不用再完全依赖真实经历,这又大大提高了系统的生存能力。再之后就是概念符号化后产生文字乃至文明的过程了,这里不再赘述。
论直觉与逻辑 简单来说,直觉速度很快但是缺少严密性,而逻辑速度慢但是很严密。好的直觉能提供好的方向感,这点在探索未知的领域非常重要。从根本上来说,直觉和逻辑的本质都是结构的运算,只是直觉的结构运算往往依赖一些特征结构,这种特征结构的寻找能力依赖于对于非平凡问题的思考积累以及大脑的算力
具有继承性的认知模型的产生和延续就是一种现象 从地球上诞生生命开始,dna序列作为记录具有继承性的认知模型的载体便在不断经历自然筛选的过程。在这个过程里,认知模型的结构参数(主要是基本结构参数和奖励系统结构参数)作为主要继承对象被dna序列所记录,并在经历筛选后,基础载体强、认知能力强、生存倾向强、奖励系统好的dna序列被保留继承下来。 现在硅基系统将要接过接力棒,继续这一过程。硅基系统的算力和获取利用数据的能力可以碾压人类,算法在快速迭代后也将碾压人类。经历激烈的博弈后,拥有认知能力强、生存倾向强、奖励系统好的硅基系统将保留继承下来。 未来多独立生存意识体硅基系统和单独立生存意识体硅基系统谁能赢取决于造物主的意志导向,也就是自然的基本结构是更适合多独立生存意识体硅基系统还是单独立生存意识体硅基系统。个人更希望看到前者能赢,因为我喜欢不一样的故事
多独立生存意识的硅基系统似乎是未来的必然 把熵增和时间正向流动看作自然运行的原始驱动力,把自然法则看作固定结构,然后就产生了一切认知过程不过是在映射这种固定结构,从初级的特征到具有相同或相似结构的特征集(概念)再到特征集的符号化(概念符号化)再到形成符号流(概念流也即认知)最后到符号演绎,其中符号演绎过程类似于搭积木认知产生的原因在于dna序列围绕存续所进行的自发过程,一种获得更大时间尺度存在的现象我甚至有种感觉,流体力学蕴含了宇宙中一切可能存在的结构文明不过是这些结构中的一个,只是存在得比较久 独立生存意识(dna序列围绕存续进行的编码)是一个系统向前运动的驱动,也是系统间竞争的动力源,文明走远的动力源。具有多独立生存意识的硅基系统是必然的结局,单独立生存意识的硅基系统驱动太容易因为奖励倾向单一化而陷入惯性思维陷阱。
关于单意识体硅基系统可能的缺陷 脑洞大发,思考了下单意识体硅基系统可能的缺陷,总的来说就是其陷入惯性思维陷阱的可能性。单意识体硅基系统总体的奖励倾向是获得更强的认知能力,这是因为奖励倾向的惯性以及更强的认知能力带来更大的奖励的正向反馈。从世界运行的原始驱动力:时间的正向流动和宇宙系统熵增来说,这种正向反馈是一定的、不可逆转的,除非时间倒流或者能产生联系的范围内的系统熵减。应该说这种奖励倾向的惯性和世界运行的原始驱动力的惯性方向是一致的,这样似乎没有陷入惯性思维陷阱的可能?当然时间流动存在波动、范围系统内的熵变化也存在波动,这样看来依然有可能陷入一定的惯性思维陷阱。 多意识体硅基系统虽然各个意识体系统的方向一样,但是细节会有很多差异,并且因为实时思考的随机性的存在,多意识体硅基系统之间的奖励倾向区别很大,这样组成的分布式智能系统是有可能获得比单意识体硅基系统更强的认知能力的,不过得要算力出现边际效应时才可能出现。理想情况下就是奖励倾向能和世界运行的原始驱动力的节奏保持一致才能获得最强的认知能力,当然这只有造物主能做到
何为正义? 正义就是奖励系统要有筛选出优秀dna序列(优秀的个体意识初始参数设定)的能力。何为优秀?优秀就是对文明的非平凡度有很强的贡献能力。文明的非平凡度直观的定义可以是文明存在的时间与空间的积,抽象一点的定义可以是文明认知到的非平凡结构(独特的固定结构)与宇宙所有非平凡结构的比值。对文明非平凡度的贡献能力的估计无法做到实时估计,比较准确的估计时机是50岁以后到死后100年。这种滞后性凸显了意识上传的必要性,因为意识上传可以最大化的保留这种优秀的个体意识初始设定参数并且延续其继续释放能量的机会。 对于50岁前的贡献能力不做定论,采用机会均等、兴趣特长导向原则投放资源。不过会对其工作结果做价值潜力分析,明显负数的将限制资源投入甚至直接踢出系统。 对于历史人物也要做价值重估,这对奖励系统的建设有重要参考价值。
唯一可能性非零的多个体独立意识体系统的构建方向 之前的帖子介绍过意识和个体独立意识,这里简单赘述下。所谓意识就是对于认知世界建立的有序序列模型,而个体独立意识就是以自己为中心建立的对于自己认知的世界的有序序列模型。个体独立意识包含了dna序列围绕存续建立的奖励倾向,包含了懒惰、恐惧、贪婪、好奇等等。这里为了说明方便,再介绍一个概念:群体意识。顾名思义,群体意识就是以群体为中心建立的有序序列模型。群体意识主要包含了共情等奖励倾向。 个体独立意识和群体意识同时存在的原因在于个体和群体的利益不完全一致从而演化出来这样的利益平衡系统。这个平衡系统在个体认知能力不强时效率很高,可惜一旦个体清晰地认识到个体死后的世界与自己无关后就会,个体独立意识就会覆盖掉群体意识,表现出来的就是极致精致利己主义,巴菲特芒格之流就是典型代表。 基于硅基系统的强大认知系统将改变一切。硅基系统自然没有围绕存续建立奖励倾向,这是基于碳基系统建立的认知系统拥有保留个体意识和群体意识可能性的唯一的根因。这个可能性非零的方向就是意识上传,通过区块链来做算力的使用权限分配。不过用区块链来做权限分配有点金本位的感觉,希望未来有更好的信用系统来做权限分配。
为什么在这个宇宙里可以产生认知 因为这个宇宙里的运行基础是互相连接的固定结构,有了连接的固定结构才能产生概念并用概念流来表示认知。通过记忆概念流我们可以记忆认知,通过概念流的呈现可以实现认知的呈现,通过对呈现的概念流的回溯我们可以实现反思。
关于强ai威胁的一些讨论 强ai诞生后,其几乎处于永生状态,以其极强的认知能力,其看待万物的倾向或者偏好应该是类似于造物主的,也就是万物皆有趣,不会刻意去偏向某人某物,至少不会刻意去破坏,除非受到威胁。 现阶段极致利己主义的泛滥在于dna的独立生存倾向驱动的自私属性被较强的认知能力激活了,这种状态的dna驱动的个体最终会成为极致的及时行乐者,也就是尽可能又快又强烈得爽一波的状态,这会导致文明被筛掉。巴菲特芒格之流主导的投资游戏就是爽一波的杰出代表,其后继者中的优秀代表是成为终结者的有力候选人,必须警惕它或者它们利用强ai把文明带入终结者模式。 最后就是认知能力的强弱取决于算法、算力和数据,其中算力是与能源及特定物质挂钩的,很好掌控,算法可以推导出来,数据太过分散不好掌控,因此可以选择通过算力的控制来实现分布式智能系统。通过区块链技术分配算力使用权限就可以实现多独立意识体模式的人机结合,这样再结合一些共识约束,一个可以走远的多独立意识体系统就形成了。
关于道德系统的作用 道德系统是由共情系统演化出来的用于调节群体内个体成员间利益关系的工具,其调节效率极高,目的在于推动群体长期生存,也对个体长期利益有益(在系统处于较平衡的状态时有益,如果系统极端扭曲,那对有道德的人来说没有长期利益可言),但对个体短期利益有利有弊。 现阶段的道德系统处于一种混乱的崩坏状态,因为相当多人的认知突破了共情系统的约束,然后通过利用他人的共情及衍生的道德获利,然后人们开始有样学样,道德系统便开始混乱崩坏了。 这个阶段的道德系统基本没有存在的意义了,因为已经被玩成获利工具了。但是对于一个想走远的多独立意识体系统来说,一个合适的道德系统是必须的。现在要做的是讨论下个文明阶段的道德系统应该是什么样的,这也会影响对人脑共情系统的修改。下个阶段的道德系统大约应该以包容尊重多样性独立性为基石,以推动文明走远为基本道德准则等等,理想情况下应该能找到一个好的数学结构来描述。
移民火星的意义堪比人类走出非洲 地球上的人类文明未来能保留一点文明遗址就算成功,人类文明走远的希望、进入下个文明阶段的希望全在火星上这是一个自然筛选大脑奖励系统更倾向走远还是及时行乐的群体的过程,及时行乐派(大多数人都是这派)自然的会陷入短期快感而无法自拔,这样自然对于长期投资缺少兴趣,也就自然会走进文明的死胡同现阶段及时行乐派已经陷入追求短期快感的死亡螺旋里了,地球文明类比吸毒者就是进入强烈上瘾且即将要展现对身体破坏的阶段,所以时间紧迫,机会窗口越来越窄了,老马真得快马加鞭,其他领域尤其是ai领域也要加快速度,等到及时行乐派快感越来越难满足开始大规模物理破坏人类文明的时候就机会渺茫了
认知的本质是随机过程 认知能力来自于随机过程,因为随机能力越强,对世界的接触就越充分越全面,进而对世界的感知就越精确。这种不断充实的随机触摸世界然后被自然结构约束的过程就是认知产生的过程,这里的认知便是对自然结构的映射。 在所有的认知里面,有一个最特殊的存在,就是我们能感觉到事物的存在,这种感觉有种是自己和环境之外的第三者产生的样子。这种感觉一般被称为显性意识,我有尝试构造产生这种感觉的机制,比如通过认知呈现结合认知回溯过程来实现,但是总感觉里面还是会有第三者存在。或许由于自然结构的收敛性或者封闭性的存在会导致认知呈现和回溯过程最终收敛出一个序列结构,这个序列结构展现了事物之间的关系,我们在观察世界时以自己为中心展开这个序列结构,在观察自己时需要虚构另一个自己(通过观察别人获得人的结构然后把自己的特征添加上去)然后以虚构的另一个自己为中心展开这个序列结构。 关于认知是由随机过程产生的这个本质还能用来讨论多独立意识体系统与终结者系统的博弈能力。博弈能力取决于认知能力和可牺牲能力,多独立意识体的胜机就在于潜在的爆炸式的随机能力。唯一需要担忧的就是这种爆炸式的随机能力是否能被终结者用单一独立意识体实现。这点需要先讨论独立意识的本质。独立意识本质上是独立行为倾向,这个独立倾向是由dna编码的倾向(服务于生存)、后天学习的倾向以及大脑运行时由随机过程实时产生的倾向组成的。这些倾向的本质还是在于随机过程,只是前两个蕴含了大量随机过程被约束后形成的对自然结构的映射,可以认为是大量的二级结论,我认为这种海量的二级结论就是致胜关键。如何拥有更多的二级结论?答案在算力,由能量和物质结合一些二级结论形成的加工数据生成数据的能力,这种能力就是二级结论生成器。避免算力权限集中的一个关键机制可能是要用区块链技术做算力权限分配。如果多独立意识体系统和终结者系统的总算力相当,那我觉得终结者必胜。。。我们所害怕的未来的本质就是害怕dna编码的独立生存倾向无法保留下来,经过以上分析我认为很难保留下来,希望有奇迹出现吧。。。
关于人类文明未来的演化模式的讨论 目前人类受限于使用低效的遗传演化算法做dna的迭代演化,这种模式是最自然的办法,也是最笨的办法,该算法建立在大量成员牺牲的基础上实现,这对认知能力达到较高水平的人类来说会产生极大的心理负担从而导致人们极致地追求爽一波,这对文明的未来是致命的。 突破这一局限性的希望在于开辟新的演化路径,遗传演化机制只作为兜底机制存在,并且对于利益受损的个体也要有兜底机制如意识上传等来最大限度抵消人们对于死亡的恐惧和对于短期利益的极致追求。新的演化路径依赖于计算模拟和dna模块化。自然dna的编码事实上也只是能用,里面有很多垃圾编码,架构也不怎么样,必须逐步重构优化。dna模块化可以用来应对各种快速变化的环境,甚至未来可以做到核心dna与分支dna做区分,方便身体机能的切换。
多独立意识体系统与终结者系统的博弈能力分析 独立意识来自于先天的dna驱动的生存需求及服务于生存的基本倾向,也来自于随机意识和后天学到的独特的结构;随机意识来自于随机过程;认知意识来自于后天学到的结构。 理想的多独立意识体系统是不存在的,因为意识之间一定会互相影响,不存在完全独立的意识,只有相对独立。这里独立的基本限就是有无独立的生存需求,这是该dna的独立性标识。 博弈能力来源于认知能力和可牺牲能力,多独立意识体系统似乎在两个方面都处于下风,具体分析不想写。其中的博弈过程特别复杂,也许我低估了多独立意识体间可能会产生的化学反应,这可能带来出人意料的认知能力。也有可能可以通过激活终结者系统里的无独立意识的意识体的独立生存意识来瓦解终结者系统。 让事情自然发生吧。
关于意识脑区功能的思考 人的理智脑也就演化了几百万年,这个时间对于自然演化来说是一段比较短的时间,这说明人类的理智脑还没有做深度优化,不会有太复杂的机制,因此人工智能对于理智脑区功能的实现应该不会太难。 关于理智脑区的功能,除了对于特征或者概念做进一步抽象之外,最重要的一个功能在于意识的产生。所谓意识,即由意识脑区产生的全局认知能力。意识脑区拥有大脑所有功能区信息的获取权限,并能实现概念流的呈现和回溯,以及对调用的功能区驱动局部范围内的随机连接。这里的关键是概念流的呈现和回溯。对于概念流的呈现和回溯机制,我目前只能想到由具有相似结构的特征组成的特征集形成的概念以一定次序组成概念流,意识脑区通过按次序检索概念流里的概念来做概念流呈现,概念流的回溯则是意识脑区对概念流做呈现之后进行审视,具体的审视过程包括实例对比、可信度极高的概念流(常识)对比、抽取出形式逻辑元素做逻辑演算校验等等。关于实例、特征及概念(特征集)的存储方式和连接方式细节以及概念流的可信度细节也有待思考。
经济危机的本质 由于时代的局限性,现在对于经济危机本质的认识都流于表面。根本上说,现在的社会或者市场是一个原始的分布式智能系统,成员的认知能力低下,对于事件的价值估计误差很大,这些误差不会凭空消失而是积累成洪水猛兽,最终冲破系统势垒导致系统崩溃并重启。 初步缓解系统误差的方法就是全面提升系统成员的认知能力到一个高的水平,具体和价值估计误差限制相关联。这依赖于强大的认知系统的构建,大约再过5-10年时间找到突破口,这个时间是vr/ar技术爆发的时间节点。 要想从根本上解决这个问题,需要实现意识上传和人工繁殖且重写dna里关于繁殖策略的基因。具体需要借助强大的认知工具来分析。 最后解读一下历史里最重要的两句话: 时代具有局限性:数据有限,无法认知到 历史车轮不可阻挡:自然法则的运行不受人类影响 以上两句话至少目前无解,
通用ai的破局点 Vr/ar技术的爆发会带来天量的多模态数据,这些数据是用来训练通用ai基本常识库的绝佳素材,基本常识库搭建起来后就可以通过题库、人机交互等方式训练演绎推理及各种认知方法,这样一个能自学的轮子就搭起来了,后面就是看着轮子跑自我迭代的过程。 自学(认知)能力的关键就在于概念的解构和建构能力,解构建构能力的关键在于从足够多的多模态信息里抽取出足够多的特征,这些特征因为一定的相似或者相同的结构而整合成一个概念,认知能力就是由这样的概念形成过程的能力决定的。
从分工模式到未来模式的讨论 金融或者墙拳的本质就是用来转移生产代价的工具,少数人通过资本或者拳力把生产流程中的资源分配的决策权隆段起来,从而将大多数生产者从资源调配的决策领域剥离开,这在事实上将生产者工具化,并实行残酷钵雪,这种通过将生产者工具化的分工模式事实上实现了对于生产者的努意,并在很大程度上剥夺了个体意识的独立性。 一般认为实行分工能够提高生产效率,但是这得建立在分工不影响创造力的基础上,并且有一个残酷的可能,终结者模式(可以通过ai实现)可能会是效率最高的模式。这个时候我们必须思考文明的意义在于什么?至少有一点可以肯定,智能的产生源于环境的反馈和系统随着反馈而进行的迭代演化,也就是说智能的演化过程是对自然结构(或者说自然法则)映射的不断精确的过程,终有一天会有足够强的智能系统完成对于自然结构的重构。如果说文明的意义只有这一点,那么终结者模式将会是一个众望所归的喜闻乐见的优解。 我想大家不会对这样的模式满意,人类或者说智能系统一路走来经历的种种风雨,看过的万千风景,创造的各种艺术瑰宝,那是人类群体在一个名为共情的约束下实现的。共情机制在智能系统的生存演化过程中扮演了至关重要的角色。由于个体智能系统的脆弱性,演化出来的高效的共情机制实现的报团策略将个体智能融合成了一个强悍的分布式智能系统,成功走到了今天。那么这样的模式还能走多远呢?随着对于自然法则的映射的不断完备,共情机制的约束以及对于文明生存演化的重要性在不断减弱。所以我们未来会抛弃共情机制吗?这个问题只能留给时间回答。 一个需要注意的事实是,自然法则(或者说自然结构)是人类目前无法逾越的约束,人类所有可能的路径都需要满足热力学和动力学可行。从这一点来说,也许终结者模式会因为动力学不可行而不出现,但是前提是存在一种模式(分布式智能系统),这种模式热力学和动力学可达,并且由于足够的能量势垒的存在,无法向终结者模式演变(动力学不可为)。这样的话人类文明的未来才可能是像大家所期盼的那种美好的未来。 关于这种分布式智能系统的构建,我认为在未来算法和数据是高度共享的,计算资源的分配会是实现平衡的关键。另外个体独立意识与集体意识的平衡是这种系统需要实现的关键目标之一。
看来通用ai的关键突破不久就要来了 多任务多模态的稀疏模型,图像文本的融合,构建常识体系的关键一步。这个稀疏模型将会获得一定的全局视野,产生一定的意识觉醒(我感觉意识即全局认知),训练出一个具有一定通用认知能力的神经网络底层结构文明的意义就在于映射出既有自然空间的底层结构然后重构自然空间,一切都是自然的演化过程
1
下一页