智能围棋中的大哥大 — AlphaGo Zero

AlphaGo Zero是DeepMind围棋软件AlphaGo的最新版。2017年10月19日,AlphaGo团队在《自然》上发表文章介绍了AlphaGo Zero,文中指出此版本不采用人类玩家的棋谱,且比之前的所有版本都要强大。 AlphaGo Zero是DeepMind围棋软件AlphaGo的最新版。2017年10月19日,AlphaGo团队在《自然》上发表文章介绍了AlphaGo Zero,文中指出此版本不采用人类玩家的棋谱,且比之前的所有版本都要强大。 通过自我对弈,AlphaGo Zero在三天内以100比0的战绩战胜了AlphaGo Lee,花了21天达到AlphaGo Master的水平,用40天超越了所有旧版本。DeepMind联合创始人兼CEO杰米斯·哈萨比斯说,AlphaGo Zero“不再受限于人类认知”,很强大。由于专家数据“经常很贵、不可靠或是无法取得”,不借助人类专家的数据集训练人工智能,对于人工智能开发超人技能具有重大意义,因为这样的AI不是学习人,是通过对自我的反思和独有的创造力直接超越人类。 AlphaGo Zero神经网络使用TensorFlow在64个GPU和19个CPU参数服务器训练,推理的TPU只有四个。神经网络最初除了规则,对围棋一无所知。AI进行“非监督式学习”,自己和自己对弈,直到能预测自己的每一手棋及其对棋局结果的影响。前三天,AlphaGo Zero连续自我对弈490万局。几天之内它就发展出击败人类顶尖棋手的技能,而早期的AlphaGo要达到同等水平需要数月的训练。为了比较,研究人员还用人类对局数据训练了另一版AlphaGo Zero,发现该版本学习更加迅速,但从长远来看,表现反而较差。 1 of 3   普遍认为,AlphaGo Zero是一次巨大的进步,即便是和它的开山鼻祖AlphaGo作比较时。艾伦人工智能研究院的奥伦·伊奇奥尼表示,AlphaGo Zero是“非常令人印象深刻的技术成果”,“不管是在他们实现目标的能力上,还是他们花40天时间用四个TPU训练这套系统的能力”。《卫报》称AlphaGo Zero是“人工智能的大突破”,援引谢菲尔德大学的伊莱尼·瓦希莱基(Eleni Vasilaki)和卡内基梅隆大学的汤姆·米切尔(Tom Mitchell),两人分别说它是令人印象深刻的成就和“突出的工程成就”。悉尼大学的马克·佩斯说AlphaGo Zero是“巨大的技术进展”,带领我们进入“未至之地”。 然而,纽约大学心理学家盖瑞·马库斯对我们目前所知的则表示谨慎,AlphaGo或许包括“程序员如何建造一台解决围棋等问题的机器的隐晦知识”,在确保它的基础结构比玩围棋时更有效率之前,它需要在其他的领域受检测。相反,DeepMind“自信这种方法可以归纳至更多的领域中”。 韩国职业围棋选手李世石回应称:“之前的AlphaGo并不完美,我认为这就是为什么要把AlphaGo Zero造出来”。至于AlphaGo的发展潜力,李世石表示他必须要静观其变,但同时表示它会影响年轻的棋手。韩国国家围棋队教练睦镇硕表示,围棋界已经模仿到之前AlphaGo各个版本的下棋风格,从中创造新的思路,他希望AlphaGo Zero能带来新的思路。睦镇硕补充道,棋界的大趋势如今被AlphaGo的下棋风格影响。“最初,我们很难理解,我差不多认为我在跟外星人打比赛。然而,有过这么次的体会,我已经适应它了。”他说。“我们现在错过了辩论AlphaGo与人类之间的能力差距的点。现在讲的是计算机间的差距。”据称,他已经开始和国家队棋手分析AlphaGo Zero的比赛风格:“虽然只看了几场比赛,但我们的印象是,AlphaGo Zero和他的前者相比,下棋更像人类。”中国职业棋手柯洁在他的微博上表示:“一个纯净、纯粹自我学习的AlphaGo是最强的……对于AlphaGo的自我进步来讲……人类太多余了。” 编者注:人类对弈的乐趣在于从对手的失误中找出反击的手段,而不是超越AI的存 。如何利用AI技术训练我们提高棋力水平,是我们当前和未来发展方向。  1,008 total views,  4 views today

 1,008 total views,  4 views today

leela-zero介绍

leela-zero和AlphaGo-zero一样,是使用蒙特卡洛树搜索和深度残差神经网络算法,不依赖于任何人类棋谱训练出来的围棋AI。leela-zero是AlphaGo-zero忠实的追随者。 和绝艺不一样的,leela-zero是开源免费的项目,其成果是全人类共享的。目前绝艺只提供给国家队使用,而leela-zero任何人都可以免费使用。 Zero顾名思义,就是从零开始。leela-zero需要从零开始学习围棋,通过自对弈产生棋谱训练自己,逐步成长为围棋高手。据估计,在普通的硬件设备上重新打造一个AlphaGo-zero需要1700年。 1700年太久,我现在就想要! 众人拾柴火焰高,因此leela-zero采用分布式的训练方式。世界各地的leela爱好者们可以贡献自己的电脑参与训练。其过程可概括为以下几步: leela志愿者者下载leela-zero训练程序autogtp 志愿者们分别运行训练程序,训练程序会自动让leela-zero自对弈,产生棋谱后上传服务器。 作者用收集到的棋谱训练出神经网络权重(权重:表征神经网络内部联系的一系列参数) 新出来的权重会和之前最强的权重对局,用于检验其棋力,400局中胜率超过55%的则更新为当前最强权重。 leela-zero的进步就是靠产生一个又一个更强的权重。 目前每天有600人左右在为leela-zero提供训练。在半年的时间内leela-zero已经自我对弈700万局,经历128次权重更迭。详细信息前往sjeng查看。 一次权重更迭就代表leela-zero 的一次进步。虽然每个人的力量很弱小,但我们团结在一起的力量是无比巨大的。Leela-zero从牙牙学语,到如今具备职业棋手水平,参与训练的志愿者们功不可没! LeelaZero最新203权重,对战FB权重获胜 深思围棋也采用了Leela-Zero 开源技术,从而让深思围棋有了一个全新的飞跃,进入了AI智能学习过程。    1,511 total views,  5 views today

 1,511 total views,  5 views today

什么是卷积神经网络(CNN)?

卷积神经网络是人工神经网络的一种,已成为当前语音分析和图像识别领域的研究热点。它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。该优点在网络的输入是多维图像时表现的更为明显,使图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程。卷积网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放、倾斜或者共他形式的变形具有高度不变性。 CNNs是受早期的延时神经网络(TDNN)的影响。延时神经网络通过在时间维度上共享权值降低学习复杂度,适用于语音和时间序列信号的处理。 CNNs是第一个真正成功训练多层网络结构的学习算法。它利用空间关系减少需要学习的参数数目以提高一般前向BP算法的训练性能。CNNs作为一个深度学习架构提出是为了最小化数据的预处理要求。在CNN中,图像的一小部分(局部感受区域)作为层级结构的最低层的输入,信息再依次传输到不同的层,每层通过一个数字滤波器去获得观测数据的最显著的特征。这个方法能够获取对平移、缩放和旋转不变的观测数据的显著特征,因为图像的局部感受区域允许神经元或者处理单元可以访问到最基础的特征,例如定向边缘或者角点。 卷积神经网络(Convolutional Neural Network, CNN)是深度学习技术中极具代表的网络结构之一,在图像处理领域取得了很大的成功,在国际标准的ImageNet数据集上,许多成功的模型都是基于CNN的。CNN相较于传统的图像处理算法的优点之一在于,避免了对图像复杂的前期预处理过程(提取人工特征等),可以直接输入原始图像。 图像处理中,往往会将图像看成是一个或多个的二维向量,如之前博文中提到的MNIST手写体图片就可以看做是一个28 × 28的二维向量(黑白图片,只有一个颜色通道;如果是RGB表示的彩色图片则有三个颜色通道,可表示为三张二维向量)。传统的神经网络都是采用全连接的方式,即输入层到隐藏层的神经元都是全部连接的,这样做将导致参数量巨大,使得网络训练耗时甚至难以训练,而CNN则通过局部连接、权值共享等方法避免这一困难,有趣的是,这些方法都是受到现代生物神经网络相关研究的启发 了解更多 CNN  卷积神经网络 DEEPTHINK 7.0 即将推出,其中使用了 CNN 这个深度学习的模块,CNN 算法解决了 围棋深度思考的局限性,将围棋的分析搞高了N个档次,不在需要根据旧有的棋谱文件来归纳总结要点,而是根据海量的机器对弈来分析每个关键点的成功机率,从而大大提高了准确度。 DEEPTHINK 7.0适合有一定基础的爱好者,想快速提高布局和中盘水平的围棋爱 好者,不仅可以为棋手提供分析,也可协同棋手与机器对弈。  2,572 total views,  4 views today

 2,572 total views,  4 views today