加入收藏 | 设为首页 | 会员中心 | 我要投稿 555手机网 (https://www.555shouji.com/)- 热门手机、手机评测、云手机、手游、5G!
当前位置: 首页 > 智能家居 > 正文

自动驾驶汽车比七个月大的婴儿还聪明吗?

发布时间:2022-02-10 21:17:54 所属栏目:智能家居 来源:网络整理
导读:到了七个月大的时候,大多数孩子已经认识到,即使看不见物体,它们仍然存在。把一个玩具放在毯子下面,孩子会知道它的存在,他可以伸手到毯子下面把它拿回来。这种对物体恒存在的理解是正常发展的里程碑,也是现实的基本原则。 这也是自动驾驶汽车所没有的。
     到了七个月大的时候,大多数孩子已经认识到,即使看不见物体,它们仍然存在。把一个玩具放在毯子下面,孩子会知道它的存在,他可以伸手到毯子下面把它拿回来。这种对"物体恒存在"的理解是正常发展的里程碑,也是现实的基本原则。
 
     这也是自动驾驶汽车所没有的。这是一个问题。即使自动驾驶汽车变得越来越好,但他们仍然不像人类那样了解世界。对于自动驾驶汽车来说,暂时被一辆路过的面包车挡住的自行车是一辆已经不复存在的自行车。
 
     这种失败对于目前广泛应用的计算学科是普遍的,该学科自称为人工智能(ai),稍微具有误导性的名字。目前的 ai 通过建立复杂的世界统计模型来工作, 但它缺乏对现实的更深入的理解。如何给ai至少一些表面上的理解 — 一个七个月大的孩子的推理能力,也许才是现在应该积极研究的问题。
 
     现代ai是基于机器学习的理念。如果工程师希望计算机识别停止标志,他不会尝试编写数千行代码来描述可能表示此类符号的每个像素模式。相反,他写了一个可以自己学习的程序,然后展示给该程序数以千计的停止标志的图片。在多次循环迭代中,程序逐渐找出所有这些图片的共同点。
 
     类似的技术用于训练自动驾驶汽车在交通中的运行。因此,汽车学习如何遵守车道标记,避免其他车辆,在红灯处踩刹车等。但他们不明白很多人类司机认为理所当然的事情,比如其他道路上的汽车有发动机和四个车轮,他们遵守交通规则(通常)和物理定律(总是)。而且他们不明白对象的永久性。
 
在《人工智能》最近的一篇论文中,瑞典Orebro大学的Mehul Bhatt描述了一种不同的方法,他也是一家名为CoDesign实验室的公司的创始人,该公司正着手将他的想法商业化。他和他的同事们使用一些现有的自动驾驶汽车使用人工智能程序,并嵌入了一个叫做符号推理引擎的软件。
 
该软件不是像机器学习那样以概率的方式接近世界,而是被编程为将基本物理概念应用于处理自动驾驶车辆传感器的信号后的程序输出。然后,修改后的输出被输入驱动车辆的软件。所涉及的概念包括离散物体随着时间的推移继续存在的想法,它们彼此之间有空间关系,如"前面"和"后面",它们可以完全或部分可见,或完全被另一个物体隐藏。
 
在测试中,如果一辆车暂时挡住了另一辆车的视线,推理增强软件可以跟踪被挡住的汽车,预测它会在何时何地再次出现,并在必要时采取措施避免它。虽然改善并不大。在标准测试中,Bhatt博士的系统比现有软件的得分高出约5%。但它证明了这一点。它也产生了别的东西。与机器学习算法不同,推理引擎可以告诉你为什么它做了这件事。
 
例如,你可以问一辆装有推力引擎的汽车为什么刹车,它能够告诉你它以为一辆被面包车遮住的自行车即将进入前面的十字路口。机器学习程序无法做到这一点。Bhatt博士认为,除了帮助改进程序设计外,这些信息还将帮助监管机构和保险公司。因此,它可以加快公众对自动驾驶汽车的接受度。
 
Bhatt博士的工作是人工智能领域长期争论的一部分。早期的 20 世纪 50 年代工作的ai 研究人员 ,利用这种预编程推理取得了一些成功。但是,从 20 世纪 90 年代开始,由于更好的编程技术以及更强大的计算机和更多可用的数据,机器学习有了显著改善。今天,几乎所有的 ai 都基于它。
 
然而,Bhatt博士并不是唯一持怀疑态度的人。在纽约大学学习心理学和神经科学的Gary Marcus也同意这一观点,他也是一家名为 Robust.ai 的人工智能和机器人公司的老板。为了支持他的观点,马库斯博士引用了一个广为人知的结果,尽管这个结果来自八年前。当时DeepMind(当时是一家独立公司,现在是谷歌的一部分)的工程师们编写了一个可以自我学习的程序,在没有得到任何有关规则的提示以及如何玩Breakout(一个游戏)的情况下,用虚拟桨击打移动的虚拟球。
 
DeepMind的程序是一个很厉害的玩家。但是,当另一组研究人员修改了Breakout的代码—仅仅将桨的位置改变几像素时,它的能力直线下降。它甚至无法将它从特定情况中学到的东西应用到只有一点不同的情况(不具备泛化性)。
 
对于Marcus博士来说,这个例子凸显了机器学习的脆弱性。但其他人认为符号推理才是脆弱的,机器学习仍然有很多好处。其中包括伦敦自动驾驶汽车公司Wayve的技术副总裁Jeff Hawke。Wayve 的方法是同时(而不是单独)训练同时运行汽车各种部件的软件。在演示中,Wayve的汽车在狭窄、交通频繁的伦敦街道上行驶时做出正确的决定,这是一项对许多人来说富有挑战性的任务。
 
正如霍克博士所说,"大多数现实世界的任务都远远复杂于人工制定的规则,众所周知,用规则构建的专家系统往往与复杂性作斗争。无论逻辑的深思熟虑或结构如何,这都是事实。例如,这样的系统可能会制定一个规则,规定汽车应在红灯时停车。但是,不同国家的红绿灯设计不同,有些灯是为行人而不是汽车设计的。也有情况下,您可能需要闯红灯,例如为消防车让路。Hawke博士说,"机器学习的美妙之处在于,所有这些因素和概念都可以自动发现并从数据中学习。随着数据的增加,它继续学习并变得更加智能。
 
在加州大学伯克利分校学习机器人和人工智能的Nicholas Rhinehart也支持机器学习。他说,Bhatt博士的方法确实表明你可以结合这两种方法。但他不确定这是必要的。在他的作品中,以及其他人的工作中,单单机器学习系统就能预测未来几秒钟内事件发生的概率,比如另一辆车是否可能让路,并根据这些预测制定应急计划。
 
Bhatt博士回应说,你可以用累积了数百万公里驾驶数据来训练汽车,但仍然不能确定你已经覆盖了所有必要的情况。在许多情况下,从一开始就对一些规则进行编程可能更简单、更有效。
 
对于这两种策略的拥护者来说,问题不仅限于自动驾驶汽车,以及 ai 本身的未来。"我认为我们现在没有采取正确的方法,"Marcus博士说。"机器学习已经证明在语音识别等某些方面有用,但它实际上并不是 ai 的答案。我们还没有真正解决智能问题。这样或那样,似乎七个月大的孩子仍然有很多东西可以教给机器。

(编辑:555手机网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读