试解释一点对于AI的常识和误区
围棋吧
全部回复
仅看楼主
level 1
kapstore 楼主
以QA的方式。
首先,我必须说我了解的有限,以下只尽可能说我知道的,欢迎指证
2017年01月06日 16点01分 1
level 1
kapstore 楼主
1) 关于棋理本身,我们能教给计算机什么?
基本上,什么也教不了。
人类对棋的认识是模糊的,这不是说谁也判断不了优劣,而是人类无法给出一个数学性的描述。
计算机的算法也可以是模糊算法,可惜模糊对模糊,是平行宇宙的距离。
2) 如果不能教,AI靠什么下棋?
抛弃棋理,只谈计算。
2017年01月06日 16点01分 2
level 1
kapstore 楼主
3) 最简单的计算方法是什么?
穷举。
既然没有“理”作为模型,最直接的方法就是傻瓜一样探索整个空间,好歹我们能教计算机什么情况叫做“赢”。
当然,原理简单不代表可行。
4) 穷举有效果么?
对于围棋,很遗憾。
首先穷举要知道整个空间的大小。不必考虑棋局反复的情况,其实容易证明围棋的空间是有限的——但这并不怎么让人好过。对数字敏感的同学懂得10^172数量级的含义。
2017年01月06日 16点01分 3
level 1
kapstore 楼主
5) 不是所有的步骤都是合理的,为什么不能砍掉以减少搜索空间?
勉强可以,但效果非常有限。
存在一个根本的问题——什么是合理的步骤?这属于Q1中说的“棋理”。
对于五子棋,我们可以以数学确定的表述一些基本的知识,比如什么是活三,以及它一定比眠三好;
对于象棋,我们可以确定的用一个值表达车一定比兵更值钱。
有了这些,可以对一些局面做一些排序(所谓启发式搜索)然后剪枝——不一定合理,但取舍是必要的;
可怜围棋连取舍的理论也很难描述。
好吧人还是可以尝试教计算机些“明显”不合理的——比如敌方气比你多50以上,比如你此步被提掉了20多个子。。。这么干除了人自己都不确定排除掉的是否都是垃圾,还发现这相当于扬掉了太平洋里的一脸盆水。
2017年01月06日 16点01分 4
level 1
kapstore 楼主
6) 不能通过演算来确定一步“好棋”吗?
和Q5一样,我们如果不能通过确定的数学告诉他某个形是好形,“好棋”就没任何可演算性。
***只有胜负是可确定的***,这意味着如果不穷举完就基本等于没算。
这种情况下强调计算机每秒多少亿次计算,没多少意义,算10步也不比算5步厉害。
7) 不能通过棋谱模仿来简化搜索么?
一般而言,不能。
首先,我们的所谓“海量”棋谱,在10^172面前连一滴水都算不上(不存在任何夸张)。以此为前提,对于任何棋谱,我们只能模糊的模仿,而这正是人教不会计算机的事情。
棋友们容易明白一子之差所代表的,可能完全不是一个局面。
2017年01月06日 16点01分 5
level 1
kapstore 楼主
8) 有不那么笨不那么直接的计算方法吗?
有不太笨,但依然比较直接的计算思路,叫做概率计算。
听说过“蒙特卡洛”算法的,应该也见过这张图,这是一个用来概率计算圆周率的示意图,其中,点越多,估算越准确,也越不容易出现人品问题(比如理论上有那么个极小概率,所有点都向左下集中)
这种方法,当然围棋也可以使用。蒙特卡洛行棋法——名词B逼格很高,但它还有个更广义的别名,叫做随机下;还有个不那么优雅的土名,叫瞎蒙。
2017年01月06日 16点01分 6
level 1
kapstore 楼主
9) 瞎蒙是放弃治疗了吗?
蒙亦有道。
概率这玩意是近代数学中的奇葩,哪都有它,它也会概率性的有用。
事实上,只要蒙的足够多又足够瞎,我们基本会像Q8图一样,既没放弃深度又没放弃覆盖面,放弃的是密度。几万个点我们差不多能把pi结果的不准确部分收敛到0.01以内(我没算)。
那么对于10^172的空间这有效么?
有效。
数学上讲,Q8中的图空间是无限的,只要将图不断放大,不管图上有多少个点,覆盖率也会越来越低,但这毫不妨碍结果的收敛指标。
对计算而言另有一个强大的好处就是把关联性也放弃了,这样容易并行,你蒙你的,我蒙我的,不用考虑冲突,计算能力很容易扩展。
2017年01月06日 16点01分 7
level 1
kapstore 楼主
10) 瞎蒙特卡洛需要多大计算量?
理论上当然计算量越大收敛效果越好,但有一个效益问题,像蒙圆周率,如果一万个点能收敛到3.141,而且够用,实用主义就不会让我们用十亿个点得到3.14159,因为我们用了十万倍的资源,却只在万分之一的范围内增加了精度。计算越到后面越是这样,这是概率算法的一个特征。但如果算得太少,样本会不均匀,也就是不够瞎。
于是就现在的条件来说有了那么一个区间,这个算法的棋力既不会低的太离谱,也高不到哪去。算再长时间也没什么意义。
2017年01月06日 16点01分 8
3.142
2017年01月07日 17点01分
@langzipro 四舍五入是魔鬼。。。如果不纠结这一位的正确性,3.146都可以用啊
2017年01月08日 00点01分
level 1
kapstore 楼主
11) 蒙特卡洛树搜索和穷举搜索有什么共同点么?
很多。
首先就是都不期望干预,蒙特卡洛的问题就是干预会影响分布的随机性,而“经验”就是一种干预;
二是结果由底向上回馈,就是说必须算到底,除了胜负结果我什么都不知道,不存在算到一半就断言的“我方形势大好”。人类方式的直觉蒙和算法的随机搜索,终究还是两回事;
没有局部结论,算不出,记不住,学不到。
=================================
以上是在AlphaGo之前一些典型算法的问题。
2017年01月06日 16点01分 9
level 8
写的不错
2017年01月06日 16点01分 10
[haha]贴完睡觉
2017年01月06日 17点01分
level 1
kapstore 楼主
12) 即然靠蒙已经提升不了棋力,为什么AlphaGo一类的AI还不放弃它?
有些情况非蒙不可。
但有些什么情况,继续说不清,算法方面能调节的只是蒙的比重,并加入其他优化方案,在阿狗之前,这些做得都不够好。
13) 阿狗有什么黑科技吗?
其实没有。
机器学习方面有两个比较知名的算法门类,即进化算法和神经网络,都是几十年前就已经存在并被用得越来越多的。棋类AI方面,这些都被应用过。而阿狗选用的是最近在图像识别方面很有造诣的深度卷积神经网络这个分支。同样的原料,调配出了不同的味道。
同时蒙特卡洛树搜索仍然担任重要角色。
故曰,除了会瞎蒙,它还深度神精。。。
2017年01月06日 16点01分 11
level 1
kapstore 楼主
14) 用了深度神经网络进行自我学习的阿狗,突破了上面所说的局限性了吗?
依然没有。
神经网络给出的结果,没别的,还是叫概率。
那和乱走出来的概率有区别么?
有,在贝叶斯方法中这个可以被叫做“先验概率”,它需要被不断的修正,而修正的方法,主要还是靠随机搜索。
以先进的先验概率作为理论指导,胡七八下作为实践手段,再在实践中提炼和完善理论,符合马克思主义哲学观。
2017年01月06日 16点01分 12
level 1
kapstore 楼主
15) 靠随机赢不了棋,靠学习却下得天马行空,阿狗到底学到了什么?
换句话说深度神经网络中存储了些什么?
网上能找到 AlphaGo 的初版技术论文,并不是很深,但对于“13层策略网络”的细节,它什么也没说。我不知道有什么,但至少可以知道没有什么。
首先肯定无关棋谱。
神经网络里的成果,都被叫作“权重”。万千棋局最后被压平成同一套或几套权重参数,所以不要指望他走过什么谱就会下什么棋;它记不住的,除非那一局非让它反复走千万次,还不许蒙的(只允许用监督学习)——那是害了它。
同样,也不会是“招法”。
阿狗的计算至少对神经网络做了两种应用,一种叫做“策略网络”,用于在搜索前选点;一种叫“估值网络”,用于对一个未完成搜索的局面判断胜率。它是模糊的,但不是动态的(它把局面当作图像来处理),而“招法”这种带有上下文的概念,它显然是无能为力。
如果要附会一种概念,我觉得最好称之为对盘面的“触觉”。
2017年01月06日 16点01分 13
level 1
kapstore 楼主
16) 下出人类不懂却行之有效的棋,是阿狗算力精深的表现么?
算瞎猫碰着死耗子。
上面说过,没有不依赖于最终胜负结果的演算,选点只有两种来源——策略网络和蒙特卡洛树。
策略网络是“触觉”形的,和人的偏好类似,换句话说,这必然是他的“历史经验”。
历史经验是怎么训练出来的?这种棋人不会下,棋谱没有,结论就是——还是蒙的。
所以在这,没有算棋之神,算力的概念其实是: “多蒙几次,没准儿你也可以”。
要说不同的话,就是人要修正自己的经验,通常是终局后复盘的事了,而阿狗的算法却会立即执行概率验证并反馈经验。这方面阿狗的成长,和人类不是一个数量级。
2017年01月06日 17点01分 14
level 1
kapstore 楼主
17) 给阿狗每步一小时或更多的时间,它的棋力还会大幅提高吗?
首先,前面说过,两种方法都用于概率性预测,那么所需时间都依赖于计算密度;而前面也说过,概率结果,越往后效益越低,时间需求是无限的,而棋力上升却是收敛性的,完全不成正比;
然后,所需时间也和方法配比有关,显然乱走要比估值网络判断胜负结果快得多,也就是说,如果完全使用估值网络,所用时间最长。然而经对比测试,这样不一定最强(Q12),既然是先验概率,怎么能指望总是最好的?同时还因为计算量增大减低了可能的搜索密度。
接近最好的方案据他们的论文说是1:1。
这就是说,在一种调校之下,它的最佳耗时范围是大体确定的,增加耗时,又或增加计算资源,效果有也很有限。
2017年01月06日 17点01分 15
1 2 尾页