主题 : 面向未来:人与机器人共存的三种理想方式
千山同一月 万户尽皆春 千江有水千江月 万里无云万里天
级别: 总版主

UID: 998
精华: 0
发帖: 604963
威望: 528524 点
无痕币: 3089 WHB
贡献值: 0 点
在线时间: 61675(时)
注册时间: 2008-12-25
最后登录: 2024-03-29

0 面向未来:人与机器人共存的三种理想方式

近年来,关于人工智能和机器人技术的进步将如何在各种工作中取代人类的言论越来越多。
但大多数人工智能专家认为结果并不那么悲观。在未来,人们仍然可以与智能系统一起工作:技术不足以完全接管,或者决策人类的生产方式。很多重要的策略,还无法完全交付给机器。
麻省理工学院教授,《我们自己的机器人》的作者大卫明德尔说,这种混合决策应该比让人工智能单独工作能产生更好的结果。只有一个问题:当人类和半智能系统试图一起工作时,情况并不总是好转。
失控的智能,没有人类该怎么办
今年在亚利桑那州坦佩的街道上发生了灾难性的示威活动,原因是进行最新自动驾驶技术的优步试验车撞死了一名过马路的人。像今天几乎所有的自动驾驶汽车一样,如果软件出现故障,还会有一名备用驾驶员介入。但当地警方的一项分析得出结论,司机当时心烦意乱,可能一直在观看智能手机上的电视节目。
优步汽车依赖于一定程度的自治系统,该自治系统将于明年推出。所谓的3级系统设计在大多数情况下可以让汽车实现自我驱动,但在面对无法处理的情况时,控制权还是得回到人类身上来。

▲调查人员在检查了一辆优步自动驾驶车,该车涉及一起道路交通事故
一些批评者说,一个旨在完全自主但突然偏离的系统对人类提出了不切实际的要求。美国初创企业Nauto的首席执行官斯特凡赫克说:“如果你每天只需要一分钟,那就不行了。”他的技术用于防止职业司机分心。
失败指向采用AI的困境远远超出无人驾驶汽车。如果没有精心设计,智能系统进入世界可能会引发人类对技术的强烈抵制。
一旦人们开始了解今天的机器学习系统有多么有限,他们所引起的夸大的希望将会迅速消失,专门研究学习心理学的AI专家Roger Schank警告说。他预测,未来将是一个新的“人工智能冬天”——这是对20世纪80年代后期的一个时期的提及,当时对技术进步的失望导致了退出战场。
预防这将需要对新自治系统更加切合实际的期望,以及精心设计以确保它们与人类世界相融合。但技术本身就是一个严重障碍。
卡内基梅隆大学(Machnegie Mellon University)机器人学教授伊拉·努尔巴赫什(Illah Nourbakhsh)说:“人工智能的工作方式及其失败的方式对我们来说是陌生的。”“人工智能会让我们感觉更多参与——或者它是否像处理外来物种一样?”

▲华盛顿特区展出的面部识别系统,这样的系统可以从人群中挑选嫌疑人,但也需要人类来清除误报
半无人驾驶汽车是一个特别鲜明的例子,它依赖于与人们密切合作的近自治系统。但随着人工智能的发展,诸如此类的混合系统正逐渐渗入许多不同的情况。
机器学习——是最近在该领域最引人注目人工智能类型——是一种先进的模式识别形式。它已经证明机器自己优于人类的能力,如识别照片中的图像或识别语音。
但是,当它必须根据训练的具体数据做出判断时效果较差。在现实世界中,人们经常会对以前没有遇到的情况做出决定。
问题在于可以匹配数据但不了解其重要性的系统。“他们是强大的东西,但他们没有世界的感觉,”Vishal Sikka,前SAP和Infosys专门从事人工智能的高管说道。
三种理想的人与智能机器共存方式
1、人类充当机器人的后援,在机器人达到其能力极限时接管
许多工作流程正在以这种方式进行重新设计——例如自动呼叫中心,其中语言理解系统尝试处理呼叫者的查询,仅在技术混淆时向操作员默认。
优步事故是一个可能出错的极端例子。根据斯坦福大学的研究显示,人类驾驶员至少需要6秒才能恢复意识并收回控制权。但是,即使有足够的时间让人们的注意力得到恢复,进入某种情况的人也可能看到与机器不同的东西,使得切换远非无缝。
“我们需要在软件系统和人之间共同努力——这是一个非常困难的问题,”Sikka先生说。语言的使用凸显了难度。Sikka先生补充说,人类可以用很少的词来传达意义:对说话者和听者之间的语境的共同理解将这些词语用意义进行投资。他补充说,计算机科学家尚未研究如何在机器中建立共识。
2、确保敏感任务总是依赖于人
即使在自动化系统已经完成所有准备工作并且能够完全完成任务本身的情况下,军事等敏感任务还是交给人类来处理。
军事无人机,人类“飞行员”,通常位于数千英里之外,被要求做出射击目标的决定,就是一个例子。面部识别系统——用于帮助移民官员识别可疑旅行者——是另一种。赫克先生说,两者都表明人工智能如何在不剥夺控制权的情况下使人类更有效。
对无人机等半自动武器的一种评价是,将它们变成完全自治的系统没有技术障碍。可以快速更改当前的程序和安全措施。

▲图:军队正在准备发射无人驾驶飞机
根据加州大学伯克利分校的人工智能教授斯图尔特拉塞尔的说法,在国家紧急情况下将人类无人机操作员从循环中移除是一个简单而容易的步骤,从而促成了一个机器人武器的时代,这个机器人武器做出了自己的决定。什么时候杀人“你不能说技术本身只能以防御的方式和人为控制。事实并非如此,“他说。
3、涉及使用AI的“人在循环”系统
机器人不能完全独立地处理任务,而是用作人类决策的辅助。压缩数据并提出建议或指导下一步采取措施的人的算法正在逐渐渗透到日常生活中。
但是,算法只能与他们训练的数据一样好——而且他们不善于处理新情况。需要信任这些系统的人通常也需要信仰这些系统。
Schank先生指出算法在棒球中的作用。分析每个击球手的优势和劣势,为球队传统主义者所倾向的领域提供了新的方法。他说,这些计算机辅助决策的结果可能最终会比基于纯粹人类分析的决策更糟糕。
旧金山优步司机使用的应用程序中的一个错误将它们发送到机场货运站点而不是客运站。“有时人们会盲目跟随机器,有时人们会说:'坚持下去,这看起来不对。'这就像许多其他技术一样,人们会适应,“技术作者蒂姆奥莱利说。
这些可能是相对无害的情况,其中由于被机器引入误导而几乎没有损坏。但是当赌注更高时会发生什么?
智能技术在发展,但人类能理解它的想法吗?
IBM将医疗诊断作为Watson的主要目标之一,该系统首先是为赢得电视游戏节目而创建的,然后再改造成为一种更为通用的“认知”系统。
这样的系统旨在由专家做出最终决定。IBM坚持认为人类永远都有最终决定权。但是,对于医生来说,覆盖计算机提供的建议是多么容易,根据定义,该计算机已经分析了更多可比较的情况并且比他们拥有的数据更多?
如果它有保险或其他财务后果,拒绝技术可能会更难。Nourbakhsh先生说:“医生处于一种他们觉得服从系统的位置。”“简单地说他们仍然会做出决定并不能做到这一点。”
类似的担忧在20世纪80年代出现,当时人工智能领域由“专家系统”主导,旨在引导人类用户通过“决策树”在任何情况下达到正确的答案。事实证明,太难以预测所有使现实世界决策复杂化的不可预见的因素。

▲图:人工智能可以比人眼更快地扫描和发现异常,但算法也有可能出错
但是基于机器学习的最新AI看起来将被广泛采用,并且可能更难以进行二次猜测。由于他们在诸如图像识别等狭窄领域的成功,对这些系统的期望一直在飙升。他们的创作者非常乐意接受炒作。
“我们正在失控的营销部门,”Schank先生说。他特别挑出?IBM,认为该公司在谈到Watson时严重过度承诺——这是AI圈子中经常听到的批评。
IBM研究工作的首席运营官达里奥吉尔(Dario Gil)捍卫了近八年前围绕沃森(Watson)发起一项大型计划的决定,他认为当时没有其他科技公司能够在人工智能方面发挥核心作用。但是,他补充说:“我们对一般情况之间的差异不够清楚。“
评估人工智能系统的质量建议会带来其他挑战,非专家可能不愿意猜测他们不理解的工作机器。
这不是一个新的困境。30多年前,一台名为Therac-25的放射治疗机的软件故障导致一些患者大量服用过量。Nourbakhsh先生说,技术人员无法识别缺陷,因此机器的使用时间更长。

▲一些计算机科学专家表示,他们希望人与机器之间能拥有更具创造性的关系
最先进的机器学习系统中使用的技术,即神经网络,带来了额外的挑战。它们模仿人类大脑如何运作的理论,通过人工神经元层传递数据,直到出现可识别的模式。与传统软件程序中使用的逻辑电路不同,无法跟踪此过程以确定计算机为什么会提出特定答案。这是采用神经网络的一大障碍。
“这是人工智能的奇特讽刺——最好的系统碰巧是今天最不易解释的系统,”Nourbakhsh先生说。
然而,一些专家表示正在取得进展,并且不久之后机器学习系统能够指出导致他们做出特定决定的因素。“这并非不可能——你可以向内看,看看它正在发出什么信号,”赫克先生说。
像许多在该领域工作的人一样,他表达了乐观的态度,即人类和机器一起工作,所取得的成就远远超过任何一个人能够独自完成的任务。但是,在美好的未来到来之前,还是有很多严峻的设计挑战等待人类解决。
十方秋水,漫长旅途.
级别: 十方秋水

UID: 116295
精华: 0
发帖: 111450
威望: 122808 点
无痕币: 4249 WHB
贡献值: 0 点
在线时间: 6088(时)
注册时间: 2011-03-27
最后登录: 2024-03-09

感谢楼主分享
Total 0.062311(s) query 5, Time now is:03-29 02:29, Gzip enabled 粤ICP备07514325号-1
Powered by PHPWind v7.3.2 Certificate Code © 2003-13 秋无痕论坛