加入收藏 | 设为首页 | 会员中心 | 我要投稿 555手机网 (https://www.555shouji.com/)- 热门手机、手机评测、云手机、手游、5G!
当前位置: 首页 > 4G频道 > 通讯 > 正文

人工智能不只能看"平面世界",还能观察四维时空

发布时间:2020-04-21 08:31:24 所属栏目:通讯 来源:网络整理
导读:从欧几里得平面到任意弯曲的物体,包括像克莱因瓶或四维时空这样的奇特流形,不管在什么表面上,都能很好地进行深度学习。
副标题[/!--empirenews.page--]

出品 | 网易科技《知否》栏目组(公众号:tech_163)

一物理学理念正帮助计算机学习在比二维更高的维度中进行“观察”。新的人工智能技术不仅能够在二维图像中发现模式,还能够在球体和其他曲面上发现模式,从而将人工智能从“平面世界”中跳脱出来。

人工智能不只能看平面世界,还能观察四维时空

新的深度学习技术已经在从CT扫描图更准确地识别肺部肿瘤方面显示出了很好的前景,有朝一日可能会带来更好的医疗诊断。

以下是翻译内容

计算机现在能够开车,能够在国际象棋和围棋等棋类游戏中击败人类世界冠军,甚至能够创作散文。人工智能的革命在很大程度上源于一种特殊的人工神经网络,它的设计灵感来自于哺乳动物视觉皮层中相互连接的神经元层。令人惊讶的是,这些“卷积神经网络”已被证明能够熟练地学习二维数据中的模式——尤其是在识别数字图像中的手写文字和物体等计算机视觉任务中。

但是,当应用到没有内置平面几何的数据集时——例如,三维计算机动画中使用的不规则形状模型,或者自动驾驶汽车生成的、用来绘制周围环境的点云——这种强大的机器学习架构就不奏效。2016年,一门名为几何深度学习的新学科应运而生,其目标是将卷积神经网络从二维世界中跳脱出来。

现在,研究人员提出了一种新的理论框架,用于构建能够在任何几何表面上学习模式的神经网络。这些网络名为“规范等变神经网络”,由塔科·科恩(Taco Cohen)、莫里斯·韦勒(Maurice Weiler)、贝尔卡伊·基卡纳格鲁(Berkay Kicanaoglu)和马克斯·韦林(Max Welling)在阿姆斯特丹大学和高通人工智能研究机构共同开发而成。它们不仅可以发现二维像素阵列的模式,还可以发现球体和非对称曲面物体上的模式。“这个框架是对曲面深度学习问题的一个明确解答。”韦林说道。

在从模拟全球气候数据中学习模式方面,卷积神经网络已经大大超过了它们的前辈。在改善观察3D物体的无人机和自动驾驶车辆的视觉方面,以及在从心脏、大脑或其他器官的不规则曲面收集的数据中发现模式方面,这些算法也可能会被证明大有用处。

人工智能不只能看平面世界,还能观察四维时空

高通和阿姆斯特丹大学的机器学习研究员塔科·科恩是规范等变卷积神经网络的主要设计师之一。

研究人员提出的将深度学习跳脱平面世界的解决方案也与物理学有着深刻的联系。描述世界的物理理论,如爱因斯坦的广义相对论和粒子物理学标准模型,表现出一种被称为“规范等变”的性质。这意味着,世界上物体的数量和它们之间的关系独立于任意的参考系(或“量规”);无论观察者是移动的还是静止的,无论标尺上的数字相距多远,它们都保持一致。在不同的测量仪表上进行的测量必须能够相互转换,以保持物体之间的基本关系。

例如,以码为单位测量一个足球场的长度,然后再以米为单位进行测量。测出来的数字会改变,但这种改变是可预测的。同样地,两个摄影师从两个不同的有利位置拍摄一个物体会产生不同的图像,但那些图像是可以相互关联的。规范等变确保物理学家的现实模型保持一致,不管他们选择什么视角或者测量单位。规范等变卷积神经网络对数据也做了同样的假设。

“他们想要把这种物理学理念应用到神经网络上,” 纽约大学物理学家凯尔·克兰麦(Kyle Cranmer)说,“他们最终也想到了办法。”

跳脱二维世界

伦敦帝国理工学院计算机科学家迈克尔·布朗斯坦(Michael Bronstein)在2015年创造了“几何深度学习”一词,来描述跳脱二维世界,设计能够从非平面数据中学习模式的神经网络的初期努力。这个术语——以及相关研究工作——很快就流行起来了。

布朗斯坦和他的合作者们知道,要超越欧几里得平面,首先需要他们对让神经网络在二维图像识别中如此有效的基本计算过程之一进行重新构想。这个过程称为“卷积”,它让神经网络的一层对小块的输入数据进行数学运算,然后将结果传递到神经网络的下一层。

“粗略地说,你可以把卷积看作滑动窗口。”布朗斯坦解释道。卷积神经网络像过滤器一样在数据上滑动许多这样的“窗口”,每个窗口都被设计用来发现数据中的某种模式。对于猫的照片,受过训练的卷积神经网络会使用过滤器来发现原始输入像素中的低级特征,比如边缘。这些特征信息被传递到网络中的其他层,然后这些层执行额外的卷积并提取更高层次的特征,如眼睛、尾巴或三角形耳朵。接受过识别猫训练的卷积神经网络最终将使用这些分层卷积的结果来为整个图像分配标签,比如“猫”或“不是猫”。

但这种方法只适用于平面。“当你想要分析的表面变得弯曲时,你基本上就有麻烦了。”韦林说。

在曲面(几何中称为流形)上进行卷积运算的难度,无异于拿着一小块半透明的图表纸,放在地球仪上,试图精确地描绘出格陵兰岛的海岸线。把图表纸压在格陵兰岛上面时,它肯定会起皱,这意味着当你再次把它放平时,你的绘画就会变形。但是,让图表纸与地球的一点相切,一边盯着纸看,一边追踪格陵兰岛的边缘(一种被称为墨卡托投影的技术),也会产生变形。如果流形不是一个像地球仪一样整齐的球体,而是一个更复杂或不规则的东西,比如一个瓶子的三维形状,或者一个褶曲的蛋白质,在上面进行卷积就更加困难了。

2015年,布罗斯特和他的同事找到了一个在非欧几里得平面上卷积的解决办法:将“滑动窗口”重新构想成某种形状更像圆形蜘蛛网而非图表纸的东西,这样你将其压在地球仪(或者任何其它的曲面)上时就不会产生皱褶、拉伸或撕裂。

以这种方式改变滑动过滤器的属性,使得卷积神经网络更善于“理解”某些几何关系。例如,该网络可以自动识别出一个弯曲成两个不同姿势的3D图形——比如一个站着的人和一个抬起一条腿的人——是同一物体的实例,而不是两个完全不同的物体。这一变化也使得这种神经网络在学习上大大提高了效率。标准的卷积神经网络“使用了数以百万计的形状样本,而且需要数周的训练。”布朗斯坦说,“我们使用了大约100个不同的姿势,训练了大概半个小时。”

与此同时,塔科·科恩和他在阿姆斯特丹的同事们开始从相反的方向来解决同样的问题。2015年,当时还是研究生的科恩并没有在研究如何将深度学习跳脱出平面世界。相反,他感兴趣的是他认为是一个实际的工程问题:数据效率,或者说如何使用更少的样本训练神经网络,而不是像通常需要的那样使用数千甚至数百万的样本。科恩说,“比如说,深度学习方法是非常缓慢的学习者。”如果你在训练卷积神经网络识别猫,这就没有什么问题了(鉴于互联网上有无数的猫的图片)。但是,如果你想让这个网络发现更重要的东西,比如肺组织图像中的癌性结节,那么找到足够的训练数据就不是那么容易了——这些数据需要准确而且恰当的医学标记,并且不存在隐私问题。训练网络所需的样本越少越好。

(编辑:555手机网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读