与时俱进,常见AI定式一览

小目小飞挂

黑飞起常见,白可选AB或脱先

图二 

白若高挂,托退定式,是少数未淘汰的人类定式

图三

黑3尖顶再跳,Ai定式

图四 黑小飞守角,白托了连扳

黑小飞守角,白托了连扳,是Ai认为的最佳局部应手

图五 – 变化1

此为常见棋形

图六 – 变化2

黑也可飞起,扩张外势

图七 – 变化3

黑1争先手

图八

白也可拆一

图九 – 星点33

星点33,现在最多的下法,这是基本图

图十 – 变化 1

黑11连板需要征子有利

图十一 变化 2

互提一子

图十二 – 变化 3

黑征子不利21飞

图十三  – 变化 4

白也可打吃一子

图十四 – 变化5

白托也可行,变化复杂

图十五 – 变化6

仅在此举一例

图十六 – 变化 7

黑长简明

图十七 – 变化 8

黑长简明

图十八  – 变化 9

黑也可再长,简明

图十九

白征子有利,才可2跳,黑9鼻顶手筋

摒弃以前学的各种定式吧,这个时代,尝试一下这些AI基本定式,是紧跟潮流必须做的

互联网收集文章 : 弈客围棋  ,如有侵权,敬请联络我们负责删除。

19 total views, 5 views today

围棋AI 缩短了职业与业余之间的距离

特约记者古柯报道 晚报杯职业与业余对抗是压轴戏,32年来,这个对抗持续进行,但双方的实力对比却发生了翻天覆地的变化。

最早的职业与业余对抗都是让两子,1988年首届晚报杯职业业余对抗,职业高手几乎倾巢而出,双方战成5比5,前三台聂卫平、陈祖德、马晓春皆负。业余棋手实力与名次颇为相称,前五台对阵职业顶尖,业余棋手4胜1负;后五台职业棋手实力稍逊,业余强豪则1胜4负。

第2至第3届晚报杯职业业余对抗没有举行,第4届职业对业余让两子,职业4比1胜;第5届更是6比0大胜,当时最强的职业棋手聂卫平、马晓春、刘小光、曹大元、俞斌、张文东悉数上阵,业余强豪一败涂地。

第6届业余强豪大打翻身仗,同为让两子,但5比1胜出。职业阵容三进三出,实力有所减弱也是事实。第7届职业高手聂、马、刘、曹一个不落,却还是与绿林军战成5比5。

第8届对抗,职业队复制第5届阵容,实力过于强大,业余强豪被让两子亦抵挡不住,1比5大败。仅有蜀中唯一的业余7段唐晓宏力取俞斌九段。

第9、第10、第11届连续三年职业与业余战成3比3平,这三届比赛过后,职业高手让业余强豪两子已勉为其难。最主要的原因是,冲段少年们开始出战,自小经过职业训练的他们实力要比传统业余强豪更为扎实。

1999年第12届晚报杯赛在昆明举行,北京老牌业余强豪孙宜国获得冠军。这也是老牌业余强豪最后一次在晚报杯赛中夺冠,标志着一个时代的结束。从此,晚报杯成为冲段少年和准职业的业余天王们平分天下的格局。

也从1999年晚报杯为标志开始,职业对业余让两子渐成历史。当年第12届职业VS业余对抗,职业1比5;第13、第14届晚报杯,职业高手2比4。在业余强豪中出现了古灵益、张东岳、赵哲伦等冲段少年的身影,他们不久成为职业棋手。

晚报杯职业让业余两子对抗的传统在经过了14个年头后,终于不得不修改对局格了。从广州举行的2002年第15届晚报杯开始,前三台让先,后三台让两子,一年一升降。第一次对抗赛“升格”,业余队5比1大胜,直接让下一届对抗改为职业让先。

2003年在汕头举行的第16届晚报杯职业业余对抗,史上第一次职业棋手全部让先,简直有逆天之感。但看看参赛的业余强豪有时越、古灵益等冲段少年就释然了,结果职业5比1胜出,挽回颜面。

之后双方对抗出现跷跷板模式,前三台让先、后三台让两子的话,业余棋手占优;全部让先,则职业棋手明显有利。这种平衡一直持续到2009年。

不过,在2010年海口第23届晚报杯对抗赛时,职业棋手即使前三台让先亦毫无优势,0比6大败。原因无它,业余六强几乎全是冲段少年,看看他们的名字:王琛、李梦石、卢天圣、李翔宇、高恬亮、夏晨琨。等于说是职业与准职业棋手之间进行的对抗,让两子简直天方夜谭。

2011年主办方别出心裁,派出6名一线职业女棋手与业余强豪进行分先对抗,结果女棋手1比5大败,令人对女棋手的实力大为惊讶。后来主办方也觉得无趣,自此再未举办过类似的对抗。

终于,从2012年起,职业与业余对抗的对局格全部改为让先,职业棋手仅仅于2012年和2014年2比4落败,其余皆胜。2017年晚报杯30周年纪念活动,职业与业余10对10对抗,对局格一概让先,由时越、陈耀烨、唐韦星率领的强大职业队10比0大胜,此结果多少也有点意外。

2018年晚报杯第二次在昆明举行,主办方别出心裁地将职业、业余对抗安排在游船上进行,对局格依然为职业让先,结果业余六强2比4落败,较之于2017年,挽回些颜面。

2019年拉萨净土第32届晚报杯在拉萨举行,晚报杯第一次上雪域高原,对所有参赛的业余强豪都是一大挑战。结果,身体调整得最好的王琛7段终结了奇怪的“四连亚”,第二次登顶,分别获得第2至第6名的是于清泉6段、瞿鸣6段、赵炎6段、花畅6段、赵斐6段。业余天王中的另三位胡煜清8段、白宝祥8段、马天放7段分别获得第7、第14、第63名。

前六名清一色都是年轻的业余天王棋手,年龄最大的是王琛,27岁;年龄最小的瞿鸣仅有14岁。老牌业余天王、冲段少年以及退役的职业棋手均名落孙山。

压轴戏——职业VS业余对抗赛,出战的职业棋手分别是:谢尔豪九段、李轩豪七段、谢科七段、赵晨宇七段、孟泰龄六段、李维清六段。结果谢尔豪负王琛、李轩豪负赵斐、赵晨宇负瞿鸣、谢科胜于清泉、孟泰龄胜赵炎、李维清胜花畅。

近三年,职业业余对抗从10比0到4比2再到3比3,业余强豪们一年比一年进步,而对局格是让先,可见职业与业余的实力差距越来越小。其最主要原因是,围棋AI的问世。

职业高手们现在依靠腾讯绝艺进行训练,而立之年的陈耀烨九段还为此焕发第二春,在首届天府杯半决赛和决赛中连胜朴廷桓九段、申真谞九段这两位韩国排名前两位的棋手,掀起“倒春寒”;业余强豪们也没空着,他们无法获得绝艺进行训练,就在网上下载其他围棋AI进行训练。王琛用手机与家里的高配置电脑远程联网,每轮比赛过后即用围棋AI进行复盘研究,这已成为他的必修课。其他几位业余高手亦如此,围棋AI改变了他们的训练模式,而在过去,他们大多通过研究会的方式进行研讨,但现在,王琛他们只需要一台电脑甚至一部手机即可。

既然大家都在用围棋AI进行训练,而且业余天王们形同职业棋手,以围棋为职业,如果不是王琛他们的基本功稍逊于职业高手的话,双方迟早都要进入分先的对局格。

是围棋AI改变了围棋生态,拉近了职业与业余之间的距离。从此意义上说,职业女棋手与男棋手之间的差距也应该为之缩小,难道不应该吗?

文章摘自 野狐围棋

19 total views, no views today

围棋 AI 养成指南 | 回形针

2017 年 5 月 27 日,由谷歌开发的围棋 AI AlphaGo 以3:0 击败当时世界排名第一的围棋棋手柯洁,随后宣布退役。

虽然 AlphaGo隐退,但它的算法却启发了一大批围棋AI 的开发。而这些 AI 之间的交锋很快成了围棋领域新的焦点。

创立于 2007 年的UEC 杯世界电脑围棋大赛每年都会集结全世界最先进的围棋 AI ,在相当长的一段时间内,冠军都由法国的Crazy Stone 和日本的 Zen 轮流获得。

然而在 2017 年第 10 届比赛中,由腾讯团队开发的围棋 AI “绝艺”首次参赛就打败其他老牌劲旅,夺得冠军,一举展示了新算法的优越性。
围棋AI新算法为什么这么厉害?
通常来说,所有棋类游戏都可以展开成一棵“游戏树”,这棵“游戏树”包含了每一回合的所有可能局面。AI 要想获得胜利,最直接的办法就是“暴力搜索”,列举出所有可能的棋局,再从最终的胜局向前回溯到当前局面,选择获胜概率最大的走法。
但围棋可能的棋局数量是 10 的 170次方,远远超过已知宇宙中所有原子的数量(10 的 80 次方),如果用“暴力搜索”下围棋,还没等人工智能算完,对面的人类棋手就已老去。
所以为了提高下棋速度,首先要提高计算机的运算能力。但即便是2018 年世界上最快的超级计算机 Summit,每秒 20 亿亿次的浮点运算还是很难用“暴力搜索法”应对围棋的巨大变数。
要想在合理的时间内做出决策,必须优化程序的算法。
围棋 AI 算法的核心在于:蒙特卡洛树搜索以及人工神经网络。
蒙特卡洛树搜索的基本原理可以理解为,在“游戏树”中随机选择一条分支,并向下推演,如果这条分支的走法可以获胜,就赋予一定权重,并在下次随机选择时优先选择权重高的分支。当随机推演的次数越来越多,那些接近必胜的走法就会脱颖而出。
而人工神经网络包含策略网络(Policy Net)和价值网络(Value Net)。
通过人类棋谱以及自己左右互搏获取数据,前者可以找出规律并预测对手的下一步;
后者可以计算出不同决策的获胜概率。
配合人工神经网络,蒙特卡洛树搜索算法可以优先找到对手最可能走以及获胜概率较大的那些分支,在保证胜率的同时极大缩短了运算时间。
不过,要想开发出实力强劲的AI,只有算法还远远不够,不同的训练方法会让围棋AI 的实力相去甚远。
在这方面,“绝艺”的秘诀之一就是和人类棋手切磋。
2016 年 8 月,“绝艺”开始用野狐扫地僧、刑天、骊龙等马甲在对战平台“腾讯野狐围棋”上与一百多位顶尖棋手对弈上千局。
这些人类棋手的棋风各异,能让“绝艺”暴露其不足而得以不断优化。2016年“绝艺”的胜率还在上下波动,到 2017 年底就已经能稳居90% 以上。
此外,这还让“绝艺”成了圈内的网红。今天,绝艺的每一次在线对局都有超过上千的棋迷观赛。2017 年 8 月,“绝艺”更是发出了自己的第一条微博,开始与网友互动。于棋迷们而言,“绝艺”是天赋异禀的少年棋士,又因其与“野狐”的渊源,也被戏称为机智的“小狐狸”。
与此同时,其他围棋 AI 也走上了网红之路,比如来自比利时的Leela Zero 采用分布式计算,靠志愿者的电脑提供算力,通过开源收获了世界各地棋迷的宠爱。而来自美国的 ELF OpenGo 则致力于搭建人工智能游戏测试平台,让围棋 AI 的算法适配更多类型的游戏。
今天,人工智能已经开始改变人类对围棋的认知, 2018 年4月,“绝艺”成为中国国家围棋队训练专用AI。通过显示人类棋手每一步的胜率和变化图,更精确地判断出局势变化,摒弃了以往人类棋手依靠经验与直觉的笼统评价。
毫无疑问,人工智能的应用拓宽了人类对围棋的认知,而这种认知也将不断提高围棋AI 的实力。
于2018 年 6 月 23日开幕的,腾讯世界人工智能围棋大赛,集结了11 支国际顶尖的围棋 AI 队伍。在两天的预选赛中,各国AI上演了无数精彩对局,而“绝艺”也获得了七战七胜的骄人成绩,携LeeLa Zero、ELF OpenGo、星阵围棋等八位AI选手晋级复赛。
文章来源摘自网络: 回型针PaperClip   如有版权问题请联络我们,我们将负责删除相关文章。
#AI围棋 #绝艺 #LeelaZero #ELFOPENGO

39 total views, 1 views today

微信团队养的那只冠军金毛PhoenixGo,正式开源了

4月28日,腾讯微信的人工智能围棋程序PhoenixGo(凤凰围棋)获得了“贝瑞基因杯”2018世界人工智能围棋大赛的冠军,据称,网友还给PhoenixGo起了个接地气的名字叫“金毛”。

今天,微信宣布,这只微信的“金毛狗”开源了,成为国内第一个开源的围棋AI项目。PhoenixGo是几名工程师在开发机器翻译引擎之余抽空研发的。

围棋AI项目PhoenixGoshi

授权协议:Apache2.0

操作系统:跨平台

开发语言:C/C++ Python

开发厂商:腾讯

GitHub地址:https://github.com/Tencent/PhoenixGo

PhoenixGo 简介

PhoenixGo是腾讯微信翻译团队开发的人工智能围棋程序,该项目由几名工程师在开发机器翻译引擎之余,基于AlphaGo Zero论文实现,同时做了若干提高训练效率的创新,并利用微信服务器的闲时计算资源进行自我对弈,缓解了Zero版本对海量资源的苛刻需求。

PhoenixGo在野狐围棋平台上的账号“金毛测试”,运行于1块性能与GTX 1080 Ti性能接近的Tesla P40上,对人类棋手具有非常高的胜率。

开源内容包括:

● 分布式 MCTS 对弈程序源码,支持 GTP 协议

● 经过大量资源训练的 20 block 模型

目前支持 Linux 和 Windows 平台。

PhoenixGo 为什么要开源

腾讯官方提到,一个好的围棋AI,需要算法、工程实现、计算资源三者结合。目前围棋AI已经有了优秀的公开算法,但同时拥有良好工程实现和大量计算资源,并不是一件容易的事。

为了让行业内其他研究者可以在此基础上继续探索围棋AI的奥秘,帮助棋手更方便地研究围棋AI的棋路,也为了众多围棋爱好者在家用普通电脑上可以享受和职业九段交锋的乐趣,微信团队决定对外开源PhoenixGo对弈源码和训练模型。

如今,PhoenixGo源码已经上传到GitHub上,这份源码和模型可以在单块GPU上提供强职业棋手的棋力,在单机多卡和多机多卡的系统上具有远超人类棋手的水平。

31 total views, 1 views today

智能围棋中的大哥大 — AlphaGo Zero

AlphaGo Zero是DeepMind围棋软件AlphaGo的最新版。2017年10月19日,AlphaGo团队在《自然》上发表文章介绍了AlphaGo Zero,文中指出此版本不采用人类玩家的棋谱,且比之前的所有版本都要强大。

AlphaGo Zero是DeepMind围棋软件AlphaGo的最新版。2017年10月19日,AlphaGo团队在《自然》上发表文章介绍了AlphaGo Zero,文中指出此版本不采用人类玩家的棋谱,且比之前的所有版本都要强大。

通过自我对弈,AlphaGo Zero在三天内以100比0的战绩战胜了AlphaGo Lee,花了21天达到AlphaGo Master的水平,用40天超越了所有旧版本。DeepMind联合创始人兼CEO杰米斯·哈萨比斯说,AlphaGo Zero“不再受限于人类认知”,很强大。由于专家数据“经常很贵、不可靠或是无法取得”,不借助人类专家的数据集训练人工智能,对于人工智能开发超人技能具有重大意义,因为这样的AI不是学习人,是通过对自我的反思和独有的创造力直接超越人类。

AlphaGo Zero神经网络使用TensorFlow在64个GPU和19个CPU参数服务器训练,推理的TPU只有四个。神经网络最初除了规则,对围棋一无所知。AI进行“非监督式学习”,自己和自己对弈,直到能预测自己的每一手棋及其对棋局结果的影响。前三天,AlphaGo Zero连续自我对弈490万局。几天之内它就发展出击败人类顶尖棋手的技能,而早期的AlphaGo要达到同等水平需要数月的训练。为了比较,研究人员还用人类对局数据训练了另一版AlphaGo Zero,发现该版本学习更加迅速,但从长远来看,表现反而较差。

普遍认为,AlphaGo Zero是一次巨大的进步,即便是和它的开山鼻祖AlphaGo作比较时。艾伦人工智能研究院的奥伦·伊奇奥尼表示,AlphaGo Zero是“非常令人印象深刻的技术成果”,“不管是在他们实现目标的能力上,还是他们花40天时间用四个TPU训练这套系统的能力”。《卫报》称AlphaGo Zero是“人工智能的大突破”,援引谢菲尔德大学的伊莱尼·瓦希莱基(Eleni Vasilaki)和卡内基梅隆大学的汤姆·米切尔(Tom Mitchell),两人分别说它是令人印象深刻的成就和“突出的工程成就”。悉尼大学的马克·佩斯说AlphaGo Zero是“巨大的技术进展”,带领我们进入“未至之地”。

然而,纽约大学心理学家盖瑞·马库斯对我们目前所知的则表示谨慎,AlphaGo或许包括“程序员如何建造一台解决围棋等问题的机器的隐晦知识”,在确保它的基础结构比玩围棋时更有效率之前,它需要在其他的领域受检测。相反,DeepMind“自信这种方法可以归纳至更多的领域中”。

韩国职业围棋选手李世石回应称:“之前的AlphaGo并不完美,我认为这就是为什么要把AlphaGo Zero造出来”。至于AlphaGo的发展潜力,李世石表示他必须要静观其变,但同时表示它会影响年轻的棋手。韩国国家围棋队教练睦镇硕表示,围棋界已经模仿到之前AlphaGo各个版本的下棋风格,从中创造新的思路,他希望AlphaGo Zero能带来新的思路。睦镇硕补充道,棋界的大趋势如今被AlphaGo的下棋风格影响。“最初,我们很难理解,我差不多认为我在跟外星人打比赛。然而,有过这么次的体会,我已经适应它了。”他说。“我们现在错过了辩论AlphaGo与人类之间的能力差距的点。现在讲的是计算机间的差距。”据称,他已经开始和国家队棋手分析AlphaGo Zero的比赛风格:“虽然只看了几场比赛,但我们的印象是,AlphaGo Zero和他的前者相比,下棋更像人类。”中国职业棋手柯洁在他的微博上表示:“一个纯净、纯粹自我学习的AlphaGo是最强的……对于AlphaGo的自我进步来讲……人类太多余了。”


编者注:人类对弈的乐趣在于从对手的失误中找出反击的手段,而不是超越AI的存 。如何利用AI技术训练我们提高棋力水平,是我们当前和未来发展方向。

22 total views, 1 views today

leela-zero介绍

leela-zero和AlphaGo-zero一样,是使用蒙特卡洛树搜索和深度残差神经网络算法,不依赖于任何人类棋谱训练出来的围棋AI。leela-zero是AlphaGo-zero忠实的追随者。 和绝艺不一样的,leela-zero是开源免费的项目,其成果是全人类共享的。目前绝艺只提供给国家队使用,而leela-zero任何人都可以免费使用。 Zero顾名思义,就是从零开始。leela-zero需要从零开始学习围棋,通过自对弈产生棋谱训练自己,逐步成长为围棋高手。据估计,在普通的硬件设备上重新打造一个AlphaGo-zero需要1700年。

1700年太久,我现在就想要!

众人拾柴火焰高,因此leela-zero采用分布式的训练方式。世界各地的leela爱好者们可以贡献自己的电脑参与训练。其过程可概括为以下几步:

  • leela志愿者者下载leela-zero训练程序autogtp
  • 志愿者们分别运行训练程序,训练程序会自动让leela-zero自对弈,产生棋谱后上传服务器。
  • 作者用收集到的棋谱训练出神经网络权重(权重:表征神经网络内部联系的一系列参数)
  • 新出来的权重会和之前最强的权重对局,用于检验其棋力,400局中胜率超过55%的则更新为当前最强权重。

leela-zero的进步就是靠产生一个又一个更强的权重。

目前每天有600人左右在为leela-zero提供训练。在半年的时间内leela-zero已经自我对弈700万局,经历128次权重更迭。详细信息前往sjeng查看。 一次权重更迭就代表leela-zero 的一次进步。虽然每个人的力量很弱小,但我们团结在一起的力量是无比巨大的。Leela-zero从牙牙学语,到如今具备职业棋手水平,参与训练的志愿者们功不可没!

深思围棋也采用了Leela-Zero 开源技术,从而让深思围棋有了一个全新的飞跃,进入了AI智能学习过程。

24 total views, 1 views today

什么是卷积神经网络(CNN)?

卷积神经网络是人工神经网络的一种,已成为当前语音分析和图像识别领域的研究热点。它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。该优点在网络的输入是多维图像时表现的更为明显,使图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程。卷积网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放、倾斜或者共他形式的变形具有高度不变性。

CNNs是受早期的延时神经网络(TDNN)的影响。延时神经网络通过在时间维度上共享权值降低学习复杂度,适用于语音和时间序列信号的处理。

CNNs是第一个真正成功训练多层网络结构的学习算法。它利用空间关系减少需要学习的参数数目以提高一般前向BP算法的训练性能。CNNs作为一个深度学习架构提出是为了最小化数据的预处理要求。在CNN中,图像的一小部分(局部感受区域)作为层级结构的最低层的输入,信息再依次传输到不同的层,每层通过一个数字滤波器去获得观测数据的最显著的特征。这个方法能够获取对平移、缩放和旋转不变的观测数据的显著特征,因为图像的局部感受区域允许神经元或者处理单元可以访问到最基础的特征,例如定向边缘或者角点。

卷积神经网络(Convolutional Neural Network, CNN)是深度学习技术中极具代表的网络结构之一,在图像处理领域取得了很大的成功,在国际标准的ImageNet数据集上,许多成功的模型都是基于CNN的。CNN相较于传统的图像处理算法的优点之一在于,避免了对图像复杂的前期预处理过程(提取人工特征等),可以直接输入原始图像。

图像处理中,往往会将图像看成是一个或多个的二维向量,如之前博文中提到的MNIST手写体图片就可以看做是一个28 × 28的二维向量(黑白图片,只有一个颜色通道;如果是RGB表示的彩色图片则有三个颜色通道,可表示为三张二维向量)。传统的神经网络都是采用全连接的方式,即输入层到隐藏层的神经元都是全部连接的,这样做将导致参数量巨大,使得网络训练耗时甚至难以训练,而CNN则通过局部连接权值共享等方法避免这一困难,有趣的是,这些方法都是受到现代生物神经网络相关研究的启发

了解更多 CNN  卷积神经网络

DEEPTHINK 7.0 即将推出,其中使用了 CNN 这个深度学习的模块,CNN 算法解决了 围棋深度思考的局限性,将围棋的分析搞高了N个档次,不在需要根据旧有的棋谱文件来归纳总结要点,而是根据海量的机器对弈来分析每个关键点的成功机率,从而大大提高了准确度。

DEEPTHINK 7.0适合有一定基础的爱好者,想快速提高布局和中盘水平的围棋爱 好者,不仅可以为棋手提供分析,也可协同棋手与机器对弈。

65 total views, 1 views today