在柯洁与AlphaGo的首场人机大战中惜败之后,人们对谷歌的这个人工智能燃起了更多兴趣。
大家对于AlphaGo的关注也从表面的棋路,开始深入到硬件及谷歌在人工智能训练方面的技术。
据DeepMind公司AlphaGo团队负责人David Silver介绍,AlphaGo使用卷积神经网络(CNN)来理解围棋,AlphaGo可以从每一层的神经网络中对棋局进行分析,现在的AlphaGo已经拥有了40层神经网络。
与此同时,AlphaGo还利用策略网络和价值网络来减少计算机的搜索宽度和深度,用策略网络忽略掉每一步中不合理的下法,而价值网络可以减少机器往后搜索的步数。
如此高深的技术,自然无法脱离庞大的计算任务,而此次升级版的AlphaGo当中仅仅使用了单个谷歌自主研发的AI计算单元TPU。
根据谷歌在今年I/O大会上透露的信息显示,目前正在使用的第二代TPU能够提供惊人的180TFLOPs浮点运算的计算能力,相比于传统的GPU和CPU分别高出了15倍和30倍之多。
与此同时,谷歌还支持一种名为TPU pod的运算阵列,每个TPU pod当中包括64颗第二代TPU,能够提供11.5PFLOPS的浮点运算能力。
未来谷歌将向第三方开放TPU云端计算服务,让更多AI开发者能够利用TPU强大的性能来训练自己的人工智能程序。