发布
首页 > 科技 查看内容
  • QQ空间
  • 回复
  • 收藏

谷歌的AI已经可以自己给自己设计芯片了

2020-04-02

  你已经是个成熟的AI,该学会自己套娃了。

  AI技术在近几年得到了快速的发展,大众对AI技术不像前两年那么陌生了。

  AI在很多领域做出了令人惊叹的成绩——如今你可以用AI给明星换头,用AI给动画补帧,还可以用AI去马赛克(划掉)。

  不过目前的AI存在一个问题,就是需要大量的时间进行学习和训练。随着人们给AI指派新的任务越来越复杂,训练AI的时间也变得越来越长。这客观上是因为AI需要处理的信息量本身就十分的巨大,但另一方面也是因为目前运行AI使用的芯片性能不足,限制了AI的运算速度,导致了学习时间很长。

  因此研究人员正在想方设法的制造出更强的芯片来提升AI的能力。近日,谷歌就推出专门用于AI的 Tensor处理器(TPU),TPU中的芯片是专门为机器学习设计的AI芯片,特别强化了神经网络和机器学习等方面的性能,运算效率更高。

  可问题是,在现实中一款新的芯片从规划、设计到生产,这种特制的芯片可能需要工程师们长达几年的设计,而AI的进步速度要比芯片的进步速度快得多,这样一来硬件研制滞后于软件开发,就大大拖慢了AI技术整体的发展进度。

  谷歌的研究科学家 Azalia Mirhoseini 说:“我们已经发现,一些算法和神经网络构架在如今的AI加速器上表现并不理想,因为这些加速器大概是两年前设计的了,那时候神经网络甚至都不存在。”

  因此要强化AI的能力,就需要在更短的时间内制造出更好的芯片,而谷歌给出的解决方案,就是让AI自己设计AI芯片。

  “我们相信AI能缩短芯片的设计周期,在硬件和AI中建立一种共生关系,相互促进彼此的进步,”谷歌在研究论文中写到。

  目前谷歌已经研究出了一种AI,可以学习规划芯片的布局。布局规划是芯片设计中非常耗时的一个工序。这通常需要斟酌逻辑单元和内存块的排布,同时顾忌芯片的性能、综合表现和尺寸大小,因此需要花很多时间一点点的尝试。

  一般来说由一个工程师团队设计一款全新的谷歌Tensor 处理器(TPU)布局大概需要几周的时间,而在实验中经过训练的AI只用了不到24个小时。而且AI设计的处理器在性能、表现和体积上也全面超过人工设计的产品。

  这个AI使用的并不是人们熟知的深度学习,而是深度强化学习技术(Deep Reinforcement learning )。这种技术不需要让AI学习数量巨大的样本,而是让AI根据环境边做边学,并根据结果是否成功给与AI反馈,AI会再根据反馈来进行调整。有名的AlphaGo使用的就是这种技术。

  深度强化学习看起来更像是人类学习的模式,不过这种AI训练的难度很大,因此不像深度学习一样普及。

  谷歌希望可以利用这种AI生产出紧跟时代的AI芯片,有人说这是AI产生自我意识的第一步。

  可以想象由AI设计出的AI芯片,可以运行更强的AI,更强的AI再设计出更更好的AI芯片,如此往复,AI的更新换代速度会越来越快,能力会越来越强,甚至取得飞跃性的进步。

  也许今后人们也会把更多的工序交给AI和机器人,进一步缩短AI进步的整个流程,直到有一天人AI学会了自己生息繁衍。

  不知道是应该高兴还是害怕。

文章点评
相关新闻