冰火梦幻 冰火梦幻
关注数: 4 粉丝数: 923 发帖数: 19,333 关注贴吧数: 31
“最恐怖谷”:如果机器人比我们还了解我们 转自果壳 http://tieba.baidu.com/mo/q/checkurl?url=http%3A%2F%2Fwww.guokr.com%2Farticle%2F438861%2F&urlrefer=ad0af154df11e40f790bdb156d7563b4 (秦鹏/编译)“恐怖谷”(uncanny valley)是日本机器人专家森政弘在20世纪70年代创造的一个术语,用来描述一个奇怪的事实:当机器人变得越来越像人,我们对它们越来越有好感——但这种好感有一个极限。过了这个极限便会跌入“恐怖谷”:当机器人开始接近和真人一模一样,当它们的样子和动作都几乎但又不完全像是真人,真人便会被勾起一种深刻而强烈的反感。这是演化的作用。从生物学角度说,反感是厌恶的一个子集,是我们最基本的情感之一,也是演化早期防止生物摄入有害食物的需求所催生的副产物。既然是生死攸关,厌恶的功能与其说是一种普通的情感,不如说更像是一种恐惧症——一种几乎无法动摇的固有反应。 厌恶可以被分成三个类型。病理厌恶(pathogenic disgust)是指我们遭遇微生物感染时的反应;道德厌恶(moral disgust)源自对社会规则的违背,比如撒谎、欺骗、偷盗、强奸、杀戮;性厌恶(sexual disgust)则源于我们避免与“生物学代价高昂的伴侣”生儿育女的愿望。而恐怖谷,正是由性厌恶和病理厌恶共同造成的。 为了让我们远离生物学代价高昂的伴侣,脑的模式识别系统具备一套一触即发的机制,能够辨别出生育力低下或者不健康的迹象。而行为几乎像是人类,但又不完全一致,在我们脑中的模式识别系统看来,便意味着不健康。 这正是机器人的问题所在。当脑探测到类人特征——也就是说当我们辨认出“这是自己这个物种的一个成员”时——我们倾向于给予更多注意。但当那些特征综合起来并不完全像人,我们就会把这当作疾病的信号。因此,接近人类但似是而非的机器人,在人类眼中就是个代价高昂的伴侣、一种有毒物质。我们的反应便是深刻的厌恶。 但是恐怖谷仅仅是第一步,这个过程很快会变得更加怪异,而且将从根本上重塑我们的意识。为了探讨这一过程,我希望顺势引入一个新概念——不妨叫它“最恐怖谷”(uncanniest valley)。 这个想法比较复杂,但是可以从一个非常简单的事实入手:每个物种都最了解(这个词既指认知意识也指基因意识)其自身所属的物种。这是哲学家托马斯·内格尔(Thomas Nagel)在他关于意识的经典论文?《做只蝙蝠是什么感觉》(What Is It Like to Be a Bat)中探讨过的知识基础。内格尔在那篇论文中主张,你永远不可能真正了解另一个物种的意识(也就是做只蝙蝠什么感觉),因为每个物种的知觉系统都经过精密的微调,对自己的感官输入和经验极度敏感。换句话说,“行家认识行家”,物种也能认识物种。 这就引出了世界上第一个机器人心理医生艾丽(Ellie)。在美国国防高等研究计划署(DARPA)的资助下,南加利福尼亚大学创新研究学院的研究者们开发了艾丽。它是一位由早期迭代计算机模拟出的心理学家,也是一套复杂的软件。根据设计,它能够根据实时传感器获取的各种信号,识别出抑郁和其他精神健康问题的信号(人们开发这套系统是为了帮助治疗患有创伤后精神紧张症的士兵,希望借助它降低军队过高的自杀率)。从技术上看,艾丽拥有一个感知面部表情的摄像机、一个跟踪姿态和动作的微软Kinect运动传感器,以及一个捕捉变音和声调的麦克风。在心理学层面上,艾丽的开发基于这样一个推想:我们下意识的动作和语调要比言辞更能揭示我们的内心状态(因此艾丽会跟踪60种不同的“特征”——从音高到凝视到歪头的方方面面)。 最近的一项研究发现,相对于人类心理医生,患者更愿意向机器人心理医生敞开心扉:参与者只要意识到自己只在和计算机互动,就会变得更加坦率和诚实。研究者发现,哪怕虚拟医生询问诸如此类的个人问题:“你有什么感到内疚的事吗?”或者“跟我说一件你希望从记忆中抹去的事件或者事物。”此外,对研究对象面部表情的视频分析还证明了,当他们认为面前只有一堆像素时,他们更愿意表露出更强烈的忧伤信号——这或许是最脆弱的表情。 机器人成功的原因相当直截了当: 机器人不会妄下评判。人类却会。 但是这一进展还让我们了解到关于我们在不久的将来可能发生的一些事情。首先,尽管如今大部分人都已经意识到机器人将在未来20年内抢走大量的工作岗位。在大部分人眼中,岌岌可危的都是“蓝领”的饭碗。但艾丽的存在,会是让你放弃这种想法的理由之一。 随着这种劳动力替换的迫近,两个重要问题行将出现:第一个是经济问题。美国有大约60.7万名社会工作者,9.3万名执业心理学家,以及约5万名心理医师。不过考虑到设计中的艾丽2.0,这些数字怕是维持不了很久了。(另外需要指出的是,这些专业每年产生大约35亿美元收入,假如机器人治疗比人类治疗便宜很多,这笔钱也会从经济中消失。) 但是第二个问题比较哲学,也是我们需要再次提到“最恐怖谷”的地方。当然,现在这个概念还只是假说,需要几个假设来支撑。我们不妨做些深入的探讨。 第一个假设是,社会工作者、心理学家和心理医师构成了一座精深的知识库,那是“关于人类”的信息的最大仓库之一——尽管这个说法或可商榷。 其次,我们也可以假设随着时间的推移,艾丽的本领会越来越高强——得出这个推断用不着冥思苦想,因为我们都知道,正如《富足:未来比你想的还美好》(Abundance: The Future Is Better Than You Think)一书中详细的论述,令机器人心理医师成为可能的所有技术都在呈指数级增长。这意味着早晚有一天,我们将拥有和我们一样了解我们自己的人工智能。 第三,作为技术加速的另一个结果,我们还可以假设很快人工智能就能比人类培养出更好的机器人治疗师——这也很自然,因为我们所讨论的,其实无非是对庞大心理学数据库的存取加上超级精确的模式识别,这两个进展已经指日可待。 问题来了——当你把上述假设综合起来,你就会意识到,早晚有一天机器人会比我们还了解我们自己。套用内格尔说法,我们将不再是最了解自己的物种。 这便是“最恐怖谷”。 正如同恐怖谷产生厌恶,我敢说最恐怖谷会产生一种几乎无法遏制的恐惧反应——这是一种全新的极度恐慌,是经过亿万年演化得来的、无法比拟的自我认识丢失之后自然而然的结果。 或许这只是暂时的。不难想象,我们将会在无意中走进这条山谷。可以确定的是,我们越是了解自己——这种了解来自何方并不真正重要——我们便越善于照料和优化自己。然而,我认为这种最恐怖谷产生的恐惧反应会与两性关系中的厌恶有相似效果——也就是说,这种恐惧会极难摆脱。 不过即便我错了,有一件事是肯定的:我们即将迎来一个几乎与此相当的拐点——我们把很多自我丢给科技的那一刻。这是21世纪的生活将愈发接近《银翼杀手》(Blade Runner)的又一个原因。(编辑:Calo) 文章题图:guardianlv.com 拓展阅读恐怖谷:人形机器人看上去很灵异? 编译来源 Forbes, The Uncanniest Valley: What Happens When Robots Know Us Better Than We Know Ourselves? 本文版权属于果壳网(guokr.com),转载请注明出处。商业使用请联系果壳
明天的无人车,也许会“故意”撞向你 转自果壳网 http://tieba.baidu.com/mo/q/checkurl?url=http%3A%2F%2Fwww.guokr.com%2Farticle%2F438660%2F&urlrefer=c6285aadae52bc308aab249e03223a95图片来源:U.S.DOT (文/Patrick Lin)假设有一辆无人驾驶车,正面临艰难抉择:它必须向左或向右急转弯。但如果向左转,就会撞上一辆沃尔沃越野车;如果向右转,就会撞上一辆小型车Mini Cooper。如果让你来给无人车设计算法,而且要追求一个合情合理的目标——把无人车对他人的伤害降到最小,那么你会如何选择? 如果单纯从物理学角度考虑,你应该选择撞向重量较大的车,因为它能更好地吸收撞击产生的冲击力。也就是说,你的算法应该指挥无人车撞向沃尔沃。而且去撞一辆以安全性能著称的车也是合情合理的,无论如何,无人车都应该撞向沃尔沃。 但物理学并不是我们唯一需要考虑的问题。如果我们给无人车设计这样一个“撞击优化算法”,指挥它放过哪些车、撞向哪些车,那这算法简直就是军事武器系统里的“靶向算法”了。如果无人车真的采用了这种算法,那么整个无人车产业就会被带上一条法律和道德都堪忧的道路。 虽然优化算法的本意是降低伤害,但是它确实通过系统运算做出了撞向大型车的决定。至于那些不幸被当成靶子的大型车,其驾驶员或所有者没有犯任何错误,却不得不独自承担恶果;也许他们唯一的“过错”,就在于自己太注重安全,或者确实需要一辆大型SUV才能带全家人一起出行。但他们却有可能平白无故遭受冲撞,这样真的公平吗?虽然无人车市场上最著名的是谷歌公司的产品,但他们绝非唯一的研究组。图中是斯坦福大学2009年的自驾车,在普通汽车基础上改装而来。图片来源:Stanford 看起来很合理的算法就这样遇到了道德挑战。如果无人车选择撞向大型车,而非小型车,那么沃尔沃和其他SUV车主当然有权愤愤不平——哪怕物理学告诉我们,这是当时情境下的最佳选择。 这个问题现实吗? 确实有许多道路交通事故无可避免,就算是无人驾驶车也不能逃脱噩运。比如一头野鹿忽然跳到车前,或者本来在旁边车道好好行驶的汽车忽然向你别过来。除非扭曲物理定律,不然事故近在眼前。但无人车或自动驾驶车也许能让撞车后果变得稍微好一点。 人类司机只能在紧急情况突发之际,凭本能快速做出反应。而无人驾驶车则受到软件控制,可以用它那“不眨眼”的监视器连续扫描周围环境。远在我们人类察觉危险之前,它就已经进行过无数次运算了。所以它们在刹那之间就能做出决定,撞向哪里才能把伤害减到最小。但是软件也要由人来写,而我们还不知道该如何处理这样的道德难题。 之所以要讨论这些极端案例,当然不是为了模拟现实世界中的真实场景。这些情景就算会成真也肯定是极其罕见的,但是它们却能暴露出正常案例里潜藏的问题。就拿刚才那个例子而言,撞击优化算法可能会表现出令人不安的歧视。也许等我们下次需要权衡两害、牺牲其一的时候,我们就该好好想一想了。 几年之前,绝大多数无人车还只是在高速公路或者野路上行驶,相对来说路况环境比较简单,也不必太过担心行人或者其他种种都市行车常会遇到的意外情况。但是谷歌最近宣布,它决定在真正的市区街道上测试它的无人驾驶车。从此以后,无人车面对的路况环境只会越来越复杂。在未来的某一天,它们势必会迎来艰难抉择:应该撞向何处?甚至撞向何人?1956年人们设想的无人驾驶车。那时应该没有人意识到它可能带来的伦理问题吧。图片来源:wikipedia 伦理关心的,不止是伤害 美国弗吉尼亚州交通创新与研究中心的科学家诺亚•古道尔(Noah Goodall)提出了另一种场景,更加凸显了问题的严重性:和上一个案例一样,假设一辆无人车马上就要撞到障碍物。它可以选择向左边或右边急转弯,但一边的“目标”是戴头盔的摩托车手,另一边的“目标”是不戴头盔的摩托车手。在这种情况下,该怎样为汽车编程才是正确的? 按照撞击优化算法的原则,你会编程让小车撞向那个在撞车之后生存几率最大的目标——在第一个案例中,无人车会撞向沃尔沃;在第二个案例中,它会撞向戴头盔的摩托车手。从统计数据来看,不戴头盔的车手更有可能死于车祸,好算法当然会把这概率计算在内,因为任何一家汽车制造商都不希望自己的车撞死人。 但我们很快就能发现这个选择的不公平之处——哪怕从算法角度来说十分合理。如果我们编程让无人车撞向戴头盔的摩托车手,难道不是因为他/她负责任地带了头盔而惩罚他/她?与此同时,我们却给另一个不注意安全、连头盔都没戴的摩托车手放了一条生路——在美国大多数州,不戴头盔都算违法行为。 这一歧视不单违反了道德准则,而且还不利于交通管制。随着无人车在城市街道上逐渐普及,这种撞击优化算法可能会迫使部分摩托车手为了不被当成靶子而摘下头盔。另外,在第一个案例中,消费者可能都不想让自己的车成为靶子,所以某些以安全系数高闻名的名牌车经销商就要倒霉。 道德运气的作用? 其实这些恼人的道德困境有个十分优雅的解法:不去刻意做选择不就成了。我们完全可以设计一辆无人车,让它靠随机数生成器来做某些决策。换言之,假如无人车只要选择了一个被撞的对象——无论大车或小车,戴头盔或不戴头盔——就一定会遇到伦理问题,那干嘛非要精打细算去选呢? 无人车的程序完全可以随机生成一个数字。如果得到奇数,它就拐向其中一边;如果得到偶数,它就拐向另外一边。这样一来就没人能指责无人车算法歧视了SUV、戴头盔的摩托车手或者任何东西了。 随机选择看起来也没有引入什么全新的东西:无论是好运气还是坏运气,我们都已屡见不鲜。随机选择也能更好地模仿人类司机的行为,毕竟司机需要在电光火石之间紧急做出反应,其结果完全无法预料,而且也不会遵从逻辑——因为一切都发生得太突然,我们人类没时间进行理性思考。 然而随机数字生成器也不是理想的方案,原因至少有如下几点:第一,模仿人类驾驶行为好像没有什么明显的益处,毕竟我们一开始之所以会设计无人车,不就是因为无人车能在关键时刻做出比我们人类更好的选择吗?人类犯错、分神或酒驾等等因素造成了90%以上的交通事故。仅在美国境内,每年就有超过32000人因此丧生。 第二,人类就算紧急之下做出了错误的选择,别人也容易原谅他——比如撞向容易爆炸的小车而不是更稳定的物件这种。可是无人车就没有这种特权了。程序员们拥有充足时间来完善程序,无需立即做出反应。这同样也是“预谋杀人”和“过失杀人”的区别。人的冲动是可以原谅的,但假如这并不是冲动,而是蓄谋已久呢?就算结果完全无法区分?图片来源:Simpsons 第三,在可预见的未来里,找到伦理难题的“正确”解法固然很好,但这不是全部——同样重要的,是你的解法经过深思熟虑,能够为这一决策辩护,向别人展示你的道德计算。在伦理学里,思考一个问题的过程就和最终结果一样重要。而随机选择却是在逃避这一责任——不是靠深思熟虑的决策,而是靠不加思索的运气,这可能比人类反思决断之后的坏判断更糟。 我们会不会“知道得太多”? 我们也可以采取不那么极端的办法:屏蔽关键信息,让无人车无从得知两边都有谁,也就不能做出差别对待——也就是为无人车打造一个“无知之幕”。在上述两个案例中,无人车将无从得知其他车辆的品牌或型号,以及摩托车驾驶员是否配备了头盔等安全设备——虽然“车对车通讯”等现代科技能让我们轻易获取相关信息。但如果我们能为无人车打造“无知之幕”,就等于是彻底消灭了偏向选择的立足之本。 不光撞击优化算法不能使用关键信息;为了免除道德责任,也许无人车本来就不应该收集这类信息。如果无人车已经得到信息,而运用这些信息本可以拯救生命、把伤害减到最小;那么明知不为,恐怕是要被追究法律责任的。这就相当于某国家情报机关明明收集了大量恐怖袭击情报,但却没能凭此来阻止恐怖袭击一样。怎能不激起公愤。 但这种思路的问题是,无人车制造商和保险公司都希望在技术允许的范围内尽可能收集情报,这样才能了解车祸详情,或者满足其他目的——比如投放某种新型车内广告。既然收集信息的诱惑如此强烈,而且技术又允许,那么自动屏蔽关键信息,是否不切实际? 应该怎么办? 未来的无人车光靠躲避撞击是不够的,因为总有一些撞车事故因为客观原因而无法避免:来不及刹车、出现技术故障、传感器错位、天气太糟糕或者仅仅是运气不好。因此,无人车也确实需要拥有撞击优化的策略。 但要优化撞击,程序员就必须设计出损失函数算法,负责评估每个选项的预期损失,然后无人车会选择预期损失最小的那个撞上去——可能就决定了事故中谁生谁死。究其本质,无人车算法其实是个道德难题,我们需要进行审慎和透明的推理。 本文所举的例子确实罕见,但这不是问题:最罕见的例子往往会成为最重要的案例,写满各大报纸的头条。在美国,平均行驶每一亿英里会发生一次致命的交通事故。也就是说,你可能开100辈子车也没碰上过一次致命事故——但正是为了避免这种罕见事情,我们才要设计无人车啊。 再次强调,以上的场景并不是为了模拟现实环境,而是思想实验,把复杂的问题简单化,独立出几个变量分别研究。无人车困境中的变量,就是伦理领域——特别是歧视和公平问题——在无人车撞击优化算法中扮演的角色。 不过,解决道德困境并非无人车面临的最大挑战。无人车使用者和一般民众可能已经对无人车产生了错误的期望,如果他们发现情况“不对头”,一定会大为惊惧。纠正民众的错误期望,才是无人车设计者面临的更大难题。因为不管无人车在道德困境中做何选择,都不可能让所有人满意。 道德和期望的冲突,并不是少数几家公司需要面对的问题,而是所有想在这个新兴领域分一杯羹的汽车制造商和一线供货都必须直面的挑战。解决问题的第一步,也许是发起一场对无人车道德问题的公开讨论,或许能让公众和无人车设计者认清问题所在,在噩运或命运来袭之时,有能力劝服他人(同时摆脱法律诉讼)。(编辑:Ent) 编译自 Slate, The Robot Car of Tomorrow May Just Be Programmed to Hit You 本文版权属于果壳网(guokr.com),转载请注明出处。商业使用请联系果壳
一个关于非公开预言者的小故事 很早以前看到的,凭记忆和发挥复述~ 某届世界杯开始前,某人(暂名为路人甲)在网上看到一则广告: 公告: 本人拥有一套算法能准确预测所有比赛胜负,为造福大众,现愿将该算法公开。 由于总有人说我在骗人,为防该算法被埋没,我只愿意将算法赠送给相信我的人。 为了证明算法的有效性,欢迎有意学习此算法者用Email联系我,我会在邮件回复中带上用算法预测得出的明晨比赛的胜负关系。 我的邮箱:[email protected] 路人甲立刻认定这是骗局,不过反正发封邮件也只是小事一桩,于是傍晚他发了封邮件给那个邮箱。很快他就收到了回复:“巴西胜克罗地亚”。 次日晨,路人甲立刻上网看赛果,果然猜中了。 路人甲觉得这只是碰巧,反正巴西本来赢面就大。于是这天傍晚,他又发了封邮件到那个预测者的邮箱,询问次日的比赛结果。同样很快地,他收到了回复: 墨西哥胜喀麦隆, 西班牙输给荷兰, 智利胜澳大利亚。 路人甲不屑地看着邮件,心想:上届世界杯冠军得主,拥有世界第一门将卡西利亚斯的西班牙会输给荷兰?瞎扯淡。我可是重注押在西班牙胜荷兰呢。 然后路人甲特地熬夜看比赛,上半场西班牙获得点球,1:0领先!路人甲嘴角一笑。当44分钟范佩西惊艳一跃头球将比分扳平时,他微微一愣,随机安慰自己:荷兰只是狗屎运,很快西班牙又会领先的。 比赛结束,西班牙1:5惨败。路人甲打开昨晚收到的预测邮件发呆,直到智利3:1击败澳大利亚的比赛结束都没回过神来。 四猜四中?莫非这预测是真的?被西班牙坑掉大钱的路人甲心想,不管怎么样,我先跟跟看吧,无论如何人家的预测起码比我准。晚上,路人甲再度发邮件询问赛果,而第三次,他收到了预测: 哥伦比亚胜希腊, 乌拉圭输给哥斯达黎加, 英格兰输给意大利, 科特迪瓦胜日本。 路人甲眼角在抽搐,劲旅乌拉圭会输给哥斯达黎加?话说哥斯达黎加不是上次我国足进入世界杯决赛圈时同组的那个嘛,它怎么看也不会比乌拉圭强啊?路人甲犹豫再三,想到前一天西班牙爆冷惨败给荷兰,还是抱着试试看的心态按照预测者的邮件小押了一注。 次日晨得到赛果,路人甲看着那个预测者的邮件地址,如同看着一座金矿。但邮件实在太不靠谱了,谁知道什么时候突然这邮箱就不给预测回复了呢?傍晚,路人甲抱着试试看的态度又发了封邮件给预测者,还是很快收到了回复。不过这一次多了些话: 瑞士胜厄瓜多尔, 法国胜洪都拉斯, 阿根廷胜波黑。 不过,最近我开始担心很多人只是想套我的预测,根本不相信我的算法,因此我打算注销这个邮箱了,这是最后一次回复。兄弟,你相信我的算法的准确性了吗?如果愿意获得我的算法,请在明天正午前将作为诚意证明的10000软妹币转账到ICBC账号XXXXXXXXXXX,我确认后会将算法发给你。 最担心的事情即将发生了!第二天上午,路人甲看到邮件昨晚的预测让自己大赚了一笔,最后一丝怀疑也烟消云散,他立刻毫不犹豫地将加倍的20000软妹币转到预测者指定的账号,然后又发了封邮件,大意是希望预测者不要再将该算法告诉别人。路人甲想当这个算法的唯一传人。 然后……就没有然后了。路人甲等了一天,又一天,又一天,直到世界杯结束,他再也没有收到来自预测者邮箱的任何邮件,更别提什么预测算法了。路人甲尝试着发邮件去问,发现那个邮箱早被注销;跑到银行一问,发现那个转账的账号也被注销了。 路人甲很遗憾,怀疑那个预测者是从比自己更早一步的人那里收到了更大的一笔钱,所以答应了不再将算法告诉更多的人。不过路人甲并不遗憾,他第三天可是赚到好几万呢,转过去的20000就当作谢礼吧。 一年后,路人甲到他的一个学数学的朋友家里做客,酒足饭饱之后,提起了这个神秘的预测者和那个更神秘的预测算法。学数学的朋友压根不信世上存在这种算法。于是路人甲将事情原原本本叙述了一遍。数学家听完哈哈大笑:你上当啦!那个邮箱背后的人根本没有什么预测算法! 可是他连续猜中了11场比赛的结果!路人甲大声反驳。 路人甲的朋友耐心地为路人甲解释了整个事件。半小时后讲解结束,路人甲已经进入石化状态:我怎么会没想到呢?
BWAI Racine 3.0 Lost Temple TvZ 求助 Raynor 2.0的比较容易,8BB压制后双矿就A死了。 Racine 3.0,双休日两天各打了十几盘,都是15分钟内输掉,在吧里找了下貌似没有Racine 3.0的TvZ教学视频,优酷上也没有,所以只好来开贴求助了…… 在这20+盘里的情况大概是这样: (1)一开始尝试8BB压制,结果刚探到对方的位置对方已经有分矿基地+6狗了,我才1个枪兵,压制失败。 (2)后来尝试改成8BS 10BB的单BB速双矿,然后双矿刚开兵力不足被快速推掉分矿,单矿兵力科技都不足,被各种一波打掉。 (3)再后来尝试单矿8BS 10BB 12BB 14BS,SCV堵斜坡,为了防守水晶在枪兵上用掉很多,科技不够快,分矿开得更是晚。等BA+雷达好了后闪一下Z,一般看到不是飞龙塔就是lurker塔。如果是飞龙塔,马上修防空、地堡,但挡不住龙狗一波;如果是lurker塔,VF比较晚,升级挂件、造坦克+攻城模式也比较晚,不得不用枪兵护士抵挡第一波lurker+小狗,然后被源源不断的lurker+小狗淹没了。 (4)看了一些比赛里的TvZ,速双矿+分矿路口拍地堡,这时科技也比较慢,等雷达好了闪一下看到飞龙塔的时候分矿主矿难以兼顾,lurker开局的话立马造VF,但雷达能量不足挡不住6~8个lurker+狗打分矿。 (5)有一次雷达没看到飞龙塔,判断是lurker,于是双地堡摆在分矿路口死守,结果主矿被慢投了一个lurker两个刺蛇。 (6)最后发现兵多才是硬道理,有一次成功挡住几波Z的刺蛇+狗+lurker的攻势,双矿拍出8BB,结果第14分钟被Z的牛狗组合给直接推掉了。 实在想不到好办法了T^T,求吧里大牛指教……
首页 1 2 下一页