各路AI人工智能围棋 简介
腾讯绝艺:绝艺(英语:Fine Art)是中国腾讯公司的AI Lab(腾讯人工智能实验室)开发的围棋和游戏人工智能。绝艺之名出自唐朝诗人杜牧的诗“绝艺如君天下少,闲人似我世间无“。围棋人工智能绝艺在2017年3月18-19日的第10届UEC杯世界计算机围棋大会上夺得冠军。
绝艺人工智能的第一个版本于2016年3月4日完成。6月下旬突破业余6段,8月开始在腾讯野狐围棋网络对弈平台测试,8月23日首次战胜职业棋手,11月2日第一次战胜世界冠军棋手[6]。曾用账号名包括虎虎有生气、野狐扫地僧、天下无狗20、绝艺、骊龙、刑天等[7]。其中绝艺账号使用时间最久,对弈盘数最多,名气最大。
金毛:PhoenixGo是由腾讯公司的微信翻译团队 依照DeepMind在科学期刊《自然》上对于AlphaGo Zero所发表的论文《Mastering the game of Go without human knowledge》所实做出的开源计算机围棋程序。也就是不使用人类棋谱与累积的围棋知识,仅实做围棋规则,使用单一类神经网络从自我对弈中学习(不像AlphaGo以人类角度思考,设计了Policy Network与Value Network)。
团队除了以BSD许可证发布可供对弈的代码以外,另外发布了20 blocks的训练数据供下载,但由于未放出训练代码或完整的原始训练数据(如棋谱)。但开放的20 blocks版本棋力相较于比赛版本弱不少,且使用不同的架构,相较于同时间开源且开放训练数据的其他软件(主要是Facebook的ELF OpenGo),社群可重复利用的资源较少。
现今在野狐围棋所使用的账号名称金毛測試与金毛陪練,故昵称为“金毛”。
那个新晋国产最强围棋AI——PhoenixGo(凤凰狗)初出茅庐便在福州2018人工智能围棋大赛上击败绝艺夺冠,PhoenixGo备受关注、风头正劲。 — GPU
弈客:弈小天是弈客围棋开发的一款人工智能程序,以Leela Zero引擎为开源围棋程序。创新方面,采用分布式引擎/训练程序、使用LCB与渐进式搜索、利用贝叶斯方法优化程序参数、使用多智能体更新策略、自研特性(围棋相关)、监督学习+强化学习训练方法。
星阵:“星阵围棋”是一款纯国产的AI,它的前身是清华大学团队开发的AI“神算子”经过技术升级以后变成了现在的星阵,其实力也大幅度提高。最重要的一点是星阵比较像人类,棋风具有人情味。它在优势下面不会退让,能多赢你时就绝不会求稳,像是人类赌气的感觉。这一点与其他AI占优时,为了确保获胜常常大幅退让的做法是大相庭径。
星阵围棋参考了AlphaGo架构,在此基础上的创新包括除胜率外可以给出目数判断,可适应不同贴目规则,兼顾数目法与数子法规则,以及适应不同路数棋盘等。同时,星阵围棋并未使用任何开源围棋程序,为完全独立研发。
棋精灵: 棋精灵是聂卫平围棋道场开发的一款完全具有自主知识产权的人工智能程序。棋精灵使用了pachi和fuego作为棋盘控件存储棋盘信息,使用gogui作为连线器。使用tensorflow框架进行神经网络的训练。参考了AlphaGo Zero的论文作为理论方法,并无其他使用的库模块。也无其他创新。
Raynz :Raynz是近年来逐渐成为一支老牌劲旅的日本围棋人工智能,作者为小林祐樹、松崎憲介、吉枝悟等人。
BADUKi : 系韩国高等科学院出身的围棋AI,可谓集万千宠爱于一身。BADUKi根据AlphaGo和AlphaGo Zero的两篇自然论文开发而成,采用ELFGo自玩游戏和ELFGo与BADUKi比赛游戏进行训练。
比利时的Leela Zero: Leela-zero和AlphaGo-zero一样,是使用蒙特卡洛树搜索和深度残差神经网络算法,不依赖于任何人类棋谱训练出来的围棋AI。leela-zero是AlphaGo-zero忠实的追随者。 和绝艺不一样的,leela-zero是开源免费的项目,其成果是全人类共享的。目前绝艺只提供给国家队使用,而leela-zero任何人都可以免费使用。 Zero顾名思义,就是从零开始。leela-zero需要从零开始学习围棋,通过自对弈产生棋谱训练自己,逐步成长为围棋高手。
法国的Golois:Golois是一款法国的老牌AI,作者为法国人Tristan Cazenave。这款法国围棋人工智能可以模拟人脑神经元,具有主动识别、自适应等功能,在图像处理方面也异常强大。Golois是蒙特卡洛树搜索(MCTS)和深度学习的结合,它通过在策略网络上与职业棋手的大量试练已学会考虑出蒙特卡洛树的落子最佳点。Golois就是使用策略和价值两个网络来考虑和评估在蒙特卡洛树的落子情况。
美国的ELF OpenGo: ELF OpenGo是Facebook AI Research团队(FAIR)依照DeepMind在科学期刊《自然》上对于AlphaGo Zero所发表的论文《Mastering the game of Go without human knowledge》与AlphaZero的论文《Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm》所实做出的开源计算机围棋程序,也就是不使用人类棋谱与累积的围棋知识,仅实做围棋规则,使用单一类神经网络从自我对弈中学习(不像AlphaGo以人类角度思考,设计了Policy Network与Value Network)。
训练网络使用20 blocks x 224 filters,在2000个GPU下训练两周,相较AlphaGo Zero使用的20 blocks x 256 filters版本略小一些(AlphaGo Zero另外还有40 blocks x 256 filters)。
由于Facebook所拥有的计算资源,产生出高质量的训练网络数据与对局棋谱,许多基于相同算法或是AlphaGo相关论文内容的围棋软件都积极测试ELF OpenGo所提供的训练数据等。
19,165 total views, 5 views today