从BlueDot对新冠疫情的预测说起...

加拿大的BlueDot公司在本次新冠肺炎疫情中可以说是受关注最多的AI公司了,据说这个公司在2019年12月31日就向其客户发出了武汉发生新冠疫情的消息,比各国卫生机构包括WHO都要早的多。

最近国内外媒体才开始报道这个公司,从他们所使用的大数据(航班订票信息等)以及AI与人类专家合作的工作模式(由不知疲倦的AI完成“大海捞针”的工作,发现蛛丝马迹之后再由人类专家判定)来看,都令人佩服和信服。但是为什么从武汉开始,到韩国、泰国、意大利等多家的爆发,他们似乎都预测到了,但是发挥的作用却非常有限,甚至知晓他们预测的人甚至都比较少呢?

他们预测的结论目前看来都是事后证明是很正确的,比如前些年他们还预测了寨卡病毒的流行,包括时间和地点。这个AI公司会不会使用我们日常生活中碰到的股票推销电话所使用的伎俩呢?向很多人推荐很多股票,他们并不知道哪只股票会涨停,但是总会有一些人被推荐的股票恰巧涨停了,那么这些人容易相信他们,也容易成为这些推销电话的顾客。BlueDot会不会也是频繁的预测,总会碰到对的,那么就把预测正确的拿来宣传,错的根本提都不提呢?这个可能性暂时还不能排除。但是AI在面向人、面向社会应用中是会存在这样的问题的,比如前段时间AI大佬Hinton就在推特里问,“如果你得了癌症,你面对两种选择,成功率为90%的AI和成功率为80%的人类专家为你做手术,你怎么选呢?”相信很多人面临这个问题时,难以作出抉择。那么,这种情况我们是不是可以归结为人类在涉及自身的时候,实际是不相信AI的,虽然我们知道它们在很多任务中的准确性已经能够达到甚至超过人类专家。(那些不涉及我们切身利益的AI应用的领域,人们很愿意接受:比如图片、语音等智能应用)

AI的能力与人们的需要之间是有“鸿沟”gap的:AI与不了解它们的一般公众之间是由于缺乏了解,AI与从事这个专业、了解其原理的人之间也有“鸿沟”,应该就是当前以深度学习为主导的AI所缺少的可解释性。这两个层面的问题,其实会在AI的发展中我们将会不得不一直面对。

AI科学家很重视这个问题,也在努力的寻找解决方案(比如因果推理的模型、深度神经网络中间层的可视化等),由于这些解决方案都是在AI这一侧进行的工作,实际上人的介入,一般人的介入是欠缺的,那么未来在AI的发展中,是不是应该有更多人文领域、社科领域的学者、一般的公众的更多更密切的介入呢?

或许,新冠疫情可能是一个很好的契机!


分享到:


相關文章: