看了两天直播,已经吓尿
配置:1920个cpu 280个显卡
配置:1920个cpu 280个显卡
AlphaGo使用蒙特卡洛树搜索,借助值网络与策略网络这两种深度神经网络,通过值网络来评估大量选点,并通过策略网络选择落点[9][1]。AlphaGo最初通过模仿人类玩家,尝试匹配职业棋手的棋局,一旦它达到了一定的熟练程度,它开始和自己对弈大量棋局,使用强化学习进一步改善它[1]。围棋无法仅通过寻找最佳步来解决;[16]游戏一盘平均有150步,每一步平均有200种可选的下法,[17]意味着有太多需要解决的可能性[16]。
引用 20!不曾存在:比赛用的机器是微机,不联网。
看了两天直播,已经吓尿
配置:1920个cpu 280个显卡
引用 SamZLim燹灵:当李后手的时候,下子跟AlphaGo的棋子旋转对称,这样按照规则,必赢
AlphaGo模仿人类玩家,那就AlphaGo执子先行,李来盘模仿棋。
引用 celeron533:那微机只是个console吧。
比赛用的机器是微机,不联网。
引用 samhrc:XXXXXXXXXXXXXXXXXXXXXXXXXXXX/hqgj/jryw/2016-03-10/content_XXXXXXXXXXXml
那微机只是个console吧。
阿尔法还只是单机版
作为历史上第一个击败了职业顶级围棋手的程序,AlphaGo带来的震惊不止于表面的输赢。比如,这次的程序,还只是单机版。
据悉,此次人机大战,谷歌没有使用分布式系统,只是使用单独的计算机,与和樊麾比赛时的性能是一样的。在谷歌发表在自然杂志上的论文中提到,运行程序的计算机,装有48个CPU和8个GPU。
但AlphaGo是在云计算平台上运行的。为了达到更高的运算能力,谷歌曾把AlphaGo接入到了1202个CPU组成的网络之中,联网后的AlphaGo算力猛增24倍。
而且谷歌目前仍在攻关用网络分布式提升程序性能。DeepMind创始人哈萨比斯解释说:“目前分布式对单机的胜率只有70%,所以最后还是决定使用单机参赛。”
也就是说,这次横空出世的谷歌大杀器,还有无限的进步空间。在首盘获胜后,AlphaGo的设计者介绍,人类在学习围棋的过程中会有导师指导,而AlphaGo除了已有的数据以外,并没有导师来告诉它哪一步棋是正确的。“包括这次比赛,很多棋并没有出现在程序曾经学习过的棋谱中。”
引用 celeron533:GPU在这里的作用是什么?难道阿尔法用“眼睛”看的!
XXXXXXXXXXXXXXXXXXXXXXXXXXXX/hqgj/jryw/2016-03-10/content_XXXXXXXXXXXml
引用 航模发烧友:GPU的并行计算能力跑神经网络有先天优势。欢迎使用我司的cuDNN神经网络库,目前不仅支持桌面GPU,也支持Tegra TK1之后的移动GPU。
GPU在这里的作用是什么?难道阿尔法用“眼睛”看的!
这样看来“查派”要出现了!
引用 t502187408:关键是后面两局还要继续下。。。心疼李世石
今天阿尔法狗赢了,估计会迎来一阵AI崇拜的热潮。
引用 20!不曾存在:模仿棋的意义不在于模仿到最后一步,而在于随时改变路数变主动,提高胜算几率。个人略好奇,可以模仿到哪一步能大大削弱AlphaGo的胜算几率使人更有可能获胜,或者说相反,削弱的是人的胜算几率。
当李后手的时候,下子跟AlphaGo的棋子旋转对称,这样按照规则,必赢
不过有破解方法,棋魂就有... 这样对电脑玩一两次可能就会被破解了
200字以内,仅用于支线交流,主线讨论请采用回复功能。