能定餐馆的 Duplex 没说自己是 AI,这会是人工智能的道德困境吗

更新时间:2018-11-29点击数:文字大小:

最近遭受到道德困境的不只是基因编辑,还有人工智能。

在今年夏天的 Google I/O 大会上,Google 向大众展示了一项名为 Duplex 的 AI 新功能——代替你预约理发或者餐馆。

这项功能之所以这么受人关注和让人激动,最大的原因就它接近以假乱真的让 AI 用自然语言和真实的人类交流,而人类甚至完全没有意识到电话对面并不是真人而是来自 Google 的 AI。

能定餐馆的 Duplex 没说自己是 AI,这会是人工智能的道德困境吗


▲ 图片来自:9to5Google

最近,这个服务终于在 Pixel 用户群组中小范围进行测试了。根据 VentureBeat 的报道,目前 Google 正在缓慢推送这项服务,而不是直接正式开放上线,目前只在「精选城市」中的 Pixel「精选用户」中测试,凡是支持这个服务的人上辈子大概都是被选召的孩子吧。

此外。这个服务目前功能上也非常有限——哪怕是对比 Google I/O 上演示版本。因为目前的测试中并不支持理发的预订(Google I/O 则专门演示了一段预约理发的视频),只集中在餐馆预订,此外一些餐馆也因为一些不明原因无法支持。

向大众开放 Duplex 是一项非常好的事情,我们终于能够亲自检验这个星球上在人工智能领域的佼佼者究竟达到了何种地步。但是最近的一些测试中 Google Duplex 却让人们产生了一些担忧,当然这不是说它在智能方面超出大众的估计,而是在整个对话过程中,Duplex 都没有告诉对方自己是只是一个 AI 服务。

当 Duplex 开始预约的时候只会告诉对方「这个电话来自 Google,并可能会被记录。」仅此而已,之后它就会按部就班的开始餐馆的预约,并在处理完成之后挂断电话。

能定餐馆的 Duplex 没说自己是 AI,这会是人工智能的道德困境吗


而这显然跟之前的宣传不符,The Verge 表示,在 Google 今年 6 月份发布到 Youtbe 的宣传片中,Duplex 会清楚的表示它是一个人工智能服务,会表示这通电话是通过 Google Assistant 呼叫并为客户进行预订。

对于为何会出现这样不同的处理,The Verge 表示根据熟悉早期测试的人士说,这个测试并不完全由 AI 构成,即一部分呼叫来自真实的 Google 员工,而其他的部分则是来自 Google 的 AI 呼叫。所以 Google 没有透露出这个人工智能助理的信息。

显然,人和 AI 的界限在这里被模糊了,因为 Duplex 听起来已经和真人非常接近,它会有停顿,会有各种各样的语调和语气词。但对于大众来说,这个测试会被理解为完全使用 AI 来进行,而在人和 AI 的对话中,人们非常需要 AI 表明自己的身份。

Venturebeat 表示 Google 需要找到一个完美的平衡:

准确而智能,透明而诚实

另外,Google 也在自己的博客向我们展示了 Duplex 究竟是如何工作的。

Google 表示这是一项通过手机来执行「真实世界」任务的新技术,而其中的核心就是面对自然语言的挑战:自然语言难以理解,自然行为难以建模,需要快速处理以及使用恰当的语调进行自然语言发声,都是其中的难点所在。

而 Google 也明确表示了透明度在其中是一项重要的部分,Google 需要明确的告知意图而对方理解前后文,未来接个月 Google 还会在这方面继续进行调整。

能定餐馆的 Duplex 没说自己是 AI,这会是人工智能的道德困境吗


而让 Google Duplex 的对话听起来很自然则要归功于 递归神经网络(RNN),为了应对这些挑战采用了 TensorFlow Extended(TFX)进行构建。而为了提高精度,Goole 还通过匿名电话的会话数据在语料库上训练 Duplex 的递归神经网络。他们还为每个场景专门对理解模型进行了训练。最后通过理解、互动和时间完成 Duplex 在「口语」上的进步。

最后 Google 表示,Google Duplex 朝着人类像和他人互动一样与技术互动迈出了一步,自然语言与人工智能的交流在特定场景中成为现实。 Google 希望这些技术进步最终将有助于改善人们与计算机日常交互的体验。

能定餐馆的 Duplex 没说自己是 AI,这会是人工智能的道德困境吗


▲ 图片来自:Medium

但就像最开头的说的,与真人界限的模糊更需要 AI 来先验明正身,而不是装作和真人无异,这对于人类来说是一件很重要的事情,或者说需要这样的一个仪式感。而随着技术的演化前进,AI 可能很快就在大部分语音接听领域达到接近人类的水平,届时关于人工智能的伦理问题将会更加直白的摆到桌上。

从结果上讲,人类并不愿意和与真人几近无异的 AI 进行对话,这会给他们一种不安全感,类似的事情其实也发生在外貌上,著名的恐怖谷理论看来不仅仅可以用在外貌上,其实在语音上也有着相似的状况。

而牛津互联网学院的数字道德实验室博士 Thomas King 就直接表示 Google 的这项测试其实就是个骗局,假定人类和 AI 已经无法区分,那对于一个接线员它会认为自己一直在和一群机器对话(所以接线员也换成 AI 不就好了?),那他还能保持和以前一样的沟通方式吗?没有礼貌和更粗鲁是不是也没有关系?哪怕接到了一个来自真人的电话,但这种想法或许已经在他脑海中挥之不去了。

能定餐馆的 Duplex 没说自己是 AI,这会是人工智能的道德困境吗


▲ 科幻电影《HER》

对于人类来说,如何思考人与科技的关系已经是一个可以说已经是一个日经的话题,我们也不缺乏相关的科幻电影对其的想象,比如施瓦辛格主演的《第六日》就讨论了人与克隆人的伦理冲突问题,而 2004 年《机械公敌》把阿西莫夫三定律带到了大众视野,电影《HER》则进一步探讨了人类和人工智能的情感的问题。

但等到 Duplex 把人类与人工智能的关系在现实中摆出来时,人类可能才发现自己有多么敏感和自我保护。对于 AI 没有标明身份这件事上,我们已经衍生出了很多问题和想法,在人与人工智能产生联系的过程中,双方的地位、责任以及更多的事情都会变得难以认定。

能定餐馆的 Duplex 没说自己是 AI,这会是人工智能的道德困境吗


▲ 图片来自:Wired

某些时候,如果我们忽略一些 Bug 问题,其实计算机是比人类更完美的一种形态,他们能确实的反应出你的行为和如实给出你要的结果,但随着人工智能模拟真人越来越像,我们可能反而更加容易和 AI 产生矛盾和摩擦,导致与我们预期的结果不符或者受到其他损失。

因为,人类就是如此不完美的生物啊。


关于我们 | 联系方式 | 招聘信息 | 版权申明 | 广告服务 | 联系我们 |

免责声明:本站为非营利性网站,部分图片或文章来源于互联网如果无意中对您的权益构成了侵犯,我们深表歉意,请您联系,我们立即删除