不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

全文共3759字,预计学习时长12分钟


不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

图源:chatbotslife


我们不再常常直接与人工客服交流了,对话型的语言界面开始主导客户服务,聊天机器人作为新客服开始持证上岗。


然而,效果却不尽如人意。大多数时候你可能还是得一无所获地呼叫人工客服,这实在让人冒火。


据Forrester称,2019年可以被视作“抵制低效聊天机器人”之年。一家开放软件服务公司Acquia对北美、欧洲和澳大利亚的5000客户和500商人进行了调查,45%的客户觉得聊天机器人“令人讨厌”。


但另一个事实是,AI聊天程序被寄予重望,它对于商业的重要性不可低估。


Gartner的调查显示,到2021年,超过50%的企业每年在聊天机器人上的花费比开发传统手机应用还要多;到2022年,聊天机器人有望帮助企业节约800万美元的成本;到2023年,借助于聊天机器人,企业和客户有望节约25亿小时;到2024年,全世界聊天机器人的市场规模有望超过13亿美元。


如果使用得当,AI聊天程序能够极大地提升竞争力,彻底改变企业和客户的交流模式。


不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

图源:mygreatlearning


所以,为什么消费者对聊天机器人的不满会与日俱增?企业又将如何确保机器助手能促进企业与客户的关系?


有一些原因不难理解。比如,许多公司过于依赖聊天机器人,因此没能打造一张人工“安全网”(如果客户需求增加,企业应该将问题快速交给人工进行有效处理);一些聊天机器人回复太慢,另一些又快得反常。


还有一些聊天机器人表现出的个性与品牌态度不符。有些公司的聊天机器人还未开发成熟,因此公司最后只能继续对其进行改造,这往往成为了致命的错误。


但究其根本,聊天机器人无法和客户顺畅交流,这可能是因为“听懂人话”和“说人话”真的很难!这一点往往被人们忽视。


人们期望的是与聊天机器人能进行自然的互动,希望AI能对他们自然的表述和要求做出响应。但问题在于,一旦离开了简单的命令——回答式交流,聊天机器人就必须使用复杂的人类语言。


虽然我们认为彼此之间进行对话再正常不过了,即使是一个三岁小孩也能做到,但这对于机器来说却难如登天。


来看看吧,为什么你的AI聊天机器人get不到你的意思,还不能好好说话?


不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

代词


名词、动词以及其他词条的意思,对于机器人还算容易,但代词却很麻烦,因为代词指的是前文语境中提到过的事物。


不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

图源:unsplash


每一个代词都需要有先行词,例如前文提到过的某个实体或个体。但在一些情况中,先行词不止一个,因此听众的工作就是要在语境的基础上选出正确的先行词。


比如你刚离开家去工作,并向机器人助手提出如下请求:


人:关掉客厅的灯和咖啡壶

机器人:好的

人:今晚6点打开它


第二句中“它”的指代意义非常模糊,因为既可以指咖啡壶又可以指客厅的灯。一个设计精良的聊天机器人应该要注意到这种模糊性,并要求对此进行解释说明。


另一个例子:


“詹妮弗邀请阿曼达来玩,她给她准备了丰盛的晚餐。”


人类能够从语境中辨明第一个“她”最有可能指的是詹妮弗,而第二个“她”指代阿曼达,因为我们知道发出邀请的人才应该准备晚餐。


再看这个例子:


“詹妮弗邀请阿曼达来玩,她送给她一条漂亮的项链。”


那么究竟是谁送给谁项链呢?涉及到赠送项链的社交惯例要少于准备晚餐,因此,就连人类也不确定这句话中的指代含义。


“詹妮弗邀请阿曼达来玩,但她告诉她,她要去外地。”


如果詹妮弗邀请阿曼达来玩,然后突然告诉她自己那天要出远门,这就十分奇怪了。所以我们能确定是阿曼达要外出,因此不能接受邀请。


再强调一下,我们仅仅因为语境和社交惯例得出了正确意思,而这确实难为聊天机器人了。


不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

图源:chatbotslife


现在,我们再来看看代词that在特定语境中可能有多少先行词。


“安娜告诉布莱恩,她决定在英国学习一年创意写作。”

“这可能是她一生的事业。”(这=创意写作)

“她完成这件事后就会搬回来和他一起住。”(这=在英国学习一年)

“这就是她一整个周都在思考的事。”(这=做出决定)

“因为这个,他俩吵了两个小时。”(这=告诉布莱恩这件事)


你应该如何让普通的聊天机器人分辨像that这样的词呢?

不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

习语


有时,我们只使用词语的字面意思,但在很多情况下,我们还会使用这些词语构成的习语。习语指的是一组词语,习语的意思不能从单个词语来推断,而应作为一个整体来记忆。


在下面的错误中,Siri仅仅从字面上来理解习语“makea note”的意思,只解读出了每个词语的含义。实际上,人们往往使用这个习语表达“记住某些东西”的意思。


不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

人们会根据语境以及其他线索来决定某组词语是否为习语,但聊天机器人却不能轻易做到。当聊天机器人对习语进行字面解读时,那尴尬的场景简直难以想象。例如,”make your blood boil”的意思是“让某人生气”。(医学方面的聊天机器人会将其理解为病患症状和病因吗?)


诸如此类的例子还有“make up your mind”, “make yourday”, “It’s raining cats and dogs”, “break a leg”, “up in the air”, and “a pieceof cake”等等。


不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

图源:unsplash


不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

结构模糊


还有一些结构上的模糊。例如“The chicken is ready to eat”这句话既能表示鸡肉被端上了桌,也能表示你需要喂养宠物鸡了。


聊天机器人应该知道各种对话发生的语境,不论是关于这个世界还是关于你个人的情况(比如,你并没有喂养宠物小鸡,或者chicken指的是一道流行菜肴而不是宠物,又或者你是把小鸡当作宠物养的素食主义者),只有这样才能做出正确的理解。


如果一句话中含有一处时间状语和不止一个动词,那么状语究竟应该修饰哪一个动词呢?


例如,“Jamie saidon Friday we will have a party” 这句话有两种含义:


1.杰米在星期五的时候说我们要举办派对。

2.杰米说星期五的时候我们要举办派对。


在现实的对话中,人们要么能够凭借丰富的语境判定句意,要么就会通过询问进一步确认,但是多数聊天机器人却无法辨明模糊的句子结构。


不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

省略


在非正式的口语交际中,对于那些我们觉得对方能在语境中获得的信息,我们通常会省略。


例如,我们一般会说“我对奶制品过敏,鱼也是。”——大家自然会理解为你对鱼和奶制品过敏,而不会理解为鱼对奶制品过敏。


一些情况下,省略也会造成模糊。例如:


1. 迈克喜欢他的母亲,比尔也是。(比尔是喜欢迈克母亲还是他自己的母亲?)

2. 安娜在她自己房间,简也是。(简是在安娜房间还是她自己的房间?)


不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

反问和讽刺


不是每个问句都需要答案。一些问句表达反问的含义,说话人只是想传达自己的情感状态。


不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

图源:unsplash


例如,问句“你知道现在几点了吗?”一般的回答是具体时间(“现在11点30了”),下面这种语气就不同了:


“你说过我们会在11点前赶到!你知道现在几点了吗?”


如果你的聊天机器人回答“现在11点30了”,确实很难忍住翻白眼。


此外,如果客户在表达讽刺时机器人没能理解,这场对话也没法继续进行下去了。例如客户不满意聊天机器人的回答,说到:“我就是需要这个。我要怎么做呢?”如果聊天机器人没有察觉到讽刺意味,回答道:“不用客气”或者试着回答这个问题,客户当然不会满意。


不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

更多的不确定性


在一些情况下,比如演讲,我们能通过韵律或者语气上的线索来判定模糊的句意(语调、语气、音高等。)


例如,They arecooking apples这句话有两种意思:


1.他们在煮苹果。

2.这些苹果是用来煮的。


人们能依靠语境和语调来正确判断句意,但大多数聊天机器人则不能做到。

不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

模棱两可的幽默


说到底,让聊天机器人像人类一样说话简直难如登天,幽默感就是最好的例子。下面是这则喜剧片段,英国喜剧演员Jimmy Carr就利用问句的模糊性和不确定性设计出了这个十分荒谬的喜剧段子。


一天,一位拿着剪贴簿的女士在街上拦住了我。她说:‘‘你能为癌症研究花点时间吗?”我回答道:“没问题,但我们只做一点点。”


要避开这些可能的圈套,你需要一个真正智能的聊天系统。这个聊天程序要足够灵活并且学得很快,只有这样它才能察觉到人类语言的微妙之处,而一般的命令——控制式聊天机器人却不能做到这一点。


不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

图源:unsplash


不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

如何避免错误


当今大多数的聊天机器人都有一个通病,那就是它们将AI和机器学习当作招牌。然而,仅仅基于机器学习的聊天机器人本质上就是个黑箱系统,如果没有大量精心挑选的训练数据,这些程序就无法运作。


如果他们无法马上理解你的意图,那么开发者也很难对其进行升级和完善。唯一让它们“改变想法”的办法就是增加更多数据。这些数据不仅要大量输入,而且要准确、做到分门别类、机器可读以及具有相关性。很少有公司能保证每种语言的聊天程序都具备以上特点。


不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

图源:aibusiness


幸运的是,有方法能解决这些问题。ArtificialSolutions的Teneo平台就做到了。该平台利用已有数据,但不仅仅依靠这些数据。


语言学习和机器学习系统使用数据的方法不同。语言学习系统是基于规则存在的,它考虑到人类的监管,允许人类对系统运行规则和回答进行调整。因此,人们能控制系统对问题的理解以及给出的回答。


在语言学习系统中,如果你想改变聊天机器人对某句话的理解,只需改变程序运行规则即可(而机器学习系统要在看到无数的反例后才会做出改变)。


简而言之,Teneo的语言学习能力可以让开发者直接向系统灌输正确答案,然后再使用机器学习来精进其表现。这是一种灵活的综合方案,企业能借助这一方案来开发可信赖的聊天机器人,以此帮助他们建立并改善和客户的关系,而不是让机器人毁掉这一切。


如何让聊天机器人不再“烦人”,这个问题真的是很迫切了。


不会“聊天”的聊天机器人:为什么Siri这么“蠢”?

留言点赞关注

我们一起分享AI学习与发展的干货

如转载,请后台留言,遵守转载规范


分享到:


相關文章: