【假人工智能】你以为的AI技术,其实是人伪装的!

2018-07-18 22:24:34 电话机器人





  新智元推荐  

来源:卫报周刊

编译:Grace


【新智元导读】7月4日百度的AI开发者大会上放了一段AI打电话的视频,一些用户一开始并没有察觉,但有的用户还是很快发现了对方是机器人。AI已经越来越可以像人类一样工作。但是,你有没有想过,也许你所使用的某些技术,其实是人类在幕后操纵?据了解,一些公司利用被专家称为“绿野仙踪技术”,将对人类的依赖作为对投资者的秘密……



建立一个由人工智能驱动的服务很难。所以事实上一些初创公司已经研究出更便宜、更容易让人类像机器人一样行动,而不是让机器像人类一样行事。


“用人来完成这项工作可以让您跳过大量的技术和业务开发挑战。显然,它不会扩展,但它允许你在早期构建一些东西并跳过困难部分,”ReadMe的首席执行官Gregory Koberger说,他说他就遇到了很多“伪AI”,“这基本上是人与人工智能的原型。”



 一些公司使用人来训练AI系统;其他人在声称拥有可扩展的AI技术时暗中依赖他们。


什么?让人伪装聊天机器人?


用伪人工智能这一做法出现在本周华尔街日报靠前的一篇文章中,文章强调Google允许数百名第三方应用开发者访问人们的收件箱。


在总部位于圣何塞的公司Edison Software,他们的人工智能工程师浏览了数百名用户的个人电子邮件 -以用户的身份认证 - 来改进“智能回复”功能。该公司没有提及在其隐私政策中人们可以查看用户的电子邮件。


“华尔街日报”文章中强调的第三方远非第一批做到这一点的。早在2008年,一家将语音邮件转换为短信的公司Spinvox被指控他们用人工在海外呼叫中心完成工作而不是机器。


2016年,彭博社强调了人们每天花12小时假装为聊天机器人做日历安排服务(如X.ai和Clara)的困境。这项工作让人头脑麻木,雇员表示他们期待被机器人取代。



2017年,企业费用管理应用程序Expensify承认,它一直使用人工来转录一些收据,并声称是“智能扫描技术”处理的。具体的做法是:收据的扫描件被发布到亚马逊的Mechanical Turk众包劳动工具上,由低薪工人来阅读和转录。


“我想知道Expensify SmartScan用户是否知道Mechanical Turk工作人员会收到他们的收据,”推特上一位“Turker”和零工经济工作者倡导者Rochelle LaPlante说道,“我正在看某个人的优步全名收据,还有接送他的地点。”


即使是在人工智能上投入巨资的Facebook也依赖人类作为其Messenger M 的虚拟助手。

 

该不该利用人力伪装人工智能呢?


在某些情况下,人类习惯于训练AI系统并提高其准确性。一家名为Scale的公司提供很多人力工作者为自动驾驶汽车和其他人工智能系统提供训练数据。比如,“定标器”会查看相机或传感器反馈,然后在框架中标记汽车,行人和骑车人。通过足够的人工校准,AI能够学习识别这些物体本身。


在其他情况下,公司会一直靠伪人工智能直到真的实现。他们告诉投资者和用户他们已经开发了可扩展的AI技术,然后同时秘密地依赖人类智能。

 

心理学家、心理健康支持聊天机器人Woebot创始人艾莉森·达西(Alison Darcy)将此描述为“绿野仙踪设计技术”。


“你可以模拟某种东西的终极体验。在人工智能领域,很多时候是幕后有人而不是算法,”她说,还补充说建立一个良好的人工智能系统需要“非常巨大的数据”,有时设计师想知道投资之前是否有足够的服务需求。


她说,这种方法不适合像Woebot这样的心理支持服务。


“作为心理学家,我们遵循道德准则。不欺骗人是非常明显的道德原则之一。“


研究表明,当人们认为他们正在与一台机器而不是一个人交谈时,他们倾向于透露更多信息,因为为自己寻求心理健康帮助是一种耻辱。


来自南加州大学的一个团队用名为Ellie的虚拟治疗师对此进行了测试。他们发现,患有创伤后应激障碍的退伍军人更有可能在他们知道艾莉是一个人工智能系统而不是被告知有人在操作机器时泄露他们的症状。

其他人则认为公司应始终对其服务运营方式保持透明。


“我不喜欢那样,”对于那些假装提供人工智能服务但实际雇用人力的公司,LaPlante如是说, “这对我来说感觉不诚实和被欺骗,这些都不是我想从我正在使用的业务中得到的东西。


“而在工人方面,感觉我们被推到了幕后。我不喜欢我的劳动力被一家公司利用,他们会转而向客户撒谎到底发生了什么。”


这种道德上的窘境也引发了人为的AI系统。最近的一个例子是Google Duplex,这是一个机器人助手,可以通过“ums”和“ers”完成令人毛骨悚然的逼真电话,预约约会和完成一些预订任务。


在最初强烈反对之后,谷歌表示其人工智能会向与之对话的人表明身份。


“在他们的演示版本中,在低影响力的对话中感觉有点欺骗性,”达西说。虽然在餐厅预订餐桌可能看起来像是一个低风险的互动,但同样的技术在错误的手上可能更具操控性。


例如,如果你可以制作模拟名人或政治家声音的逼真电话,会发生什么?


达西说:“人工智能已经存在很大的恐惧,而且当缺乏透明度时,它并没有真正帮助对话。”


对此,你怎么看呢?




【加入社群】


新智元 AI 技术 + 产业社群招募中,欢迎对 AI 技术 + 产业落地感兴趣的同学,加小助手微信号: aiera2015_3  入群;通过审核后我们将邀请进群,加入社群后务必修改群备注(姓名 - 公司 - 职位;专业群审核较严,敬请谅解)。