查看原文
其他

人类啊,你为何不信赖我的算法?

2017-02-28 Wharton 神经现实

来源:Wharton  翻译:ZDFFF 封面:Stuart Kinlough

自从计算器被发明,数学模型就被用于辅助甚至取代人类的决策过程,因为数学模型的推动者们相信,机器不会出错。然而,很多人却讨厌使用算法,反而倾向于依靠直觉来作出各种决定。

在最新的研究中,沃顿商学院运营、信息与决策系的教授 Cade Massey 和 Joseph Simmons, 以及芝加哥大学的 Berkeley J. Dietvorst 教授指出:人们是否信赖一个算法,取决于自己是否有控制权。如果你能让决策者们对算法稍微有些控制权,那他们就更有可能去使用它。

 

沃顿知识在线的记者采访了 Massey 和 Simmons, 并探讨了他们的研究结论。以下是访谈的节选。



您可以简要概括一下本次研究吗?这篇文章是你们近期研究的后续报道。

Joseph Simmons: 我们在研究一种叫“算法厌恶”的现象。就是说,人们在决策的时候,往往不愿意去遵守某些有据可循的规则,尽管说大量的研究都证明,你确实就应当使用那种方法去判断、去预测。很多人完全就是跟着感觉走、摸着石头过河。他们本该遵循固定的、有据可循的规则,而他们却不这么做。


我们研究好几年了,就是要搞清楚他们为什么、以及什么情况下不愿意依靠这些算法。我们的第二篇文章讨论的是如何能让人们更信赖算法。简单来说,我们发现,如果你告诉别人,“你可以借助一个算法,它能给你提一些建议;你也可以自己做决定”,然后你问他们,“你会怎么选择呢?”——他们其实也会说“我要用算法。”


可是,一旦你把他们的选择付诸实践,让他们见识一下那个算法是怎么运作的,他们突然间就再也不想用了。那是因为他们发现算法也会出错。只要他们看到算法或者计算机也会出错,他们就再也不想用它了。即便是算法或者计算机以后只会犯更小的错误,或者更少地出错,也不能让这些人信赖它。



“很多人完全就是跟着感觉走、摸着石头过河。他们本该遵循固定的、有据可循的规则,而他们却不这么做。”

——Joseph Simmons




人们期望算法是完美的。

Simmons: 是的。人们不仅希望算法是完美的,还指望算法是完美的。可是,我们(编写算法的时候)仅仅是希望它能够比人类的表现要好一点点。我们的第一篇文章有一些悲观。文章说,一旦人们知道某个算法是怎么运作的,他们就不想用了。我们的第二篇文章则表明,你其实是可以说服人用算法的。你只需给他们一点点控制权。如果你说,“根据这个算法,这个人将来的GPA会是3.2。那你觉得他的GPA将会是多少呢?”他们不愿意接受算法(预测)的3.2分。但如果你说,“你可以在0.1分范围内调整这个预测值”,他们就会说:“行。我愿意用这个算法。”我们发现,只要你能让人们稍微有点控制权,他们就更愿意用它。这是个好消息。


Cade Massey: 虽然我们只是在实验环境下检验了这个理论,但它的灵感来源于现实世界中发生的事情。本次研究早期的一些想法,是在与一些公司合作的过程中得来的。我们为公司提供模型,用来招聘新员工。基于多年积累的数据,和优良的数据分析,我们确信自己提供了当时最好的建议。然而,那些公司却不太愿意使用(这些模型);因为他们想要依靠自己的直觉。


这个现象很常见:在招聘中、在绩效考核中如此,现在也越来越多地出现在有自动化决策的领域,比如说管理对冲基金或者预测产品销量时。自动生成的预测或者建议,也就是算法,在这些领域内越来越普及。而作出最终决定的人,可以选择听从建议,依靠自己的(直觉),或者实施中间方案。


Mark Allen Miller


你们的诀窍是,如果能让人有一些控制权,他们就不会那么排斥算法了。然而,究竟需要给人们多大的控制权,才能让他们更接受算法——听说结论让你们吃了一惊。您能谈一谈这件事吗?

Massey: 需要多大的控制权,才能让人接受算法,我们一开始并不确定。给人控制权,会有一个副作用,就是决策的效果会变差。在多数领域中,给人控制权,效果会比完全使用算法要差。越是有主观的意见掺和在决策过程中,效果就越差。于是,你就希望给他们最小的控制权,而他们还能接受算法。我们当时还不知道控制权最小能有多小。我们在研究初期中就已经知道,控制权不需要太大。然后我们试出了它的极限,结论是只需要给人一点点控制权就行了。你知道吗,只需要给人5%左右的控制权,他们就更乐于使用算法了。再增大他们的控制权,他们的兴趣并不会进一步提高。只有一点点控制权,和能够影响决策,效果几乎是一样的。


Simmons: 这就很绝妙了:如果他们修改算法,只会越改越糟。但如果他们只能修改(一点点),他们就只会让结果糟糕那么一小点。既然给他们一点点控制权,他们就更愿意使用算法,那最终的决策与算法本身还是很接近的。我们虽然不能让人百分百地使用算法,但我们能让他们99%地使用算法,而这就已经能够大幅度优化他们的决策了。



“我们虽然不能让人百分百地使用算法,但我们能让他们99%地使用算法,而这就已经能够大幅度优化他们的决策了。”

——Joseph Simmons




假如我是一个公司的老板,或者我购买了一个算法,我能怎样应用你们的研究结论呢?

Massey: 最重要的一点是,你不能强加给人一个铁板一块的模型,或者说一个“黑盒子”一样的模型,然后跟人说,“你应当这样决策。你应当制定这样的决策步骤。”人们会反抗的。你需要给他们决定权。不同的行业,需要有不同的对策。比方说,研究生院要招生,招生办就会给申请者排名次。但有的时候也会有例外。一些人的排序会被调整。这个调整的过程,也可以被自动化。即使你用招生办的部分决策作为模型的输入信息,你还是可以拿出一个自动化模型,然后说,“你应当录取这些人。”


但你有两种选择。如果你说,“这是我们的模型。这是它的结论,你爱信不信。反正我们要把决策过程自动化。”你这么做会招来抗议的。但你也可以说,“我们有一个模型能为您提供一些建议。希望您能参考一下。如果您愿意做一些调整,也是可以通融的。”我们正是与学校这样沟通的。 他们起初还有些将信将疑,只是部分依靠我们的模型。而时间长了,尽管他们依然有权任意调整,但他们基本上就全盘使用模型了。


我觉得,呈现给使用者的方式也很重要。沟通的时候必须让对方知道自己有控制权。

Simmons: 我认为最重要的是不能给人一种“不接受拉倒”的感觉,不能让人觉得你要强迫他们无时不刻完完全全地使用算法。如果你的沟通方式给人那样的感觉,他们就会抵制你。但如果你能这么说,人们就更乐于接受你的算法:“虽然说99%的情况下,我们要使用算法,但你永远都有权修改算法,甚至不遵循算法。”


对自动驾驶汽车行业来说,这就很重要。不难理解,如果人们乘坐一辆完全不受控制的自动驾驶汽车,他们就会感到不安。但如果跟人这么说,“其实吧,你还是可以做这么一件事的。这件事稍微有点难做,也不太寻常,但在你需要的时候,你确实可以通过这种方式来驾驭汽车。我们发现,从来就没有人用到过这个机制,但这个机制是存在的。”——我们推测,如果能这样跟人说,人们就更加愿意乘坐自动驾驶汽车,毕竟他们也有一些控制权。自动驾驶通常比人工驾驶要安全,但人们还是希望能有一位驾驶员,尽管说很多的坠机事故都是飞行员的过错造成的。有人驾驶,他们就能安心。我觉得,我们的研究跟这个问题也有点联系。



“人们希望算法是完美的……可是,我们(编写算法的时候)仅仅是希望它能够比人类的表现要好一点点。”

——Joseph Simmons



最近新闻里还有什么事情能够应用到你们的研究结论呢?

Massey: 选举预测?


Simmons: 对。去年十一月,我们的总统选举结果震惊了世界。有一大堆人在做预测,他们根据以往的民调信息,预测大选的结果。最著名的大概要数 FiveThirtyEight.com 的 Nate Silver。他说希拉里有70%的机会赢得大选,而特朗普只有30%的机会。结果当然是,特朗普赢了,而 Nate Silver 备受嘲讽。人们觉得他错了,而且他的模型就错了。问题是,他的模型未必就错了,因为30%的几率意味着只有30%的情况下才会发生。如果一个独立评论员说什么会发生,结果没发生,他不会受到那么多的嘲讽。但如果有人用数据和算法预测什么会发生,结果没发生,他会受到大规模嘲讽,因为人们指望那样预测的结果有100%的准确性。我认为人们对 Nate Silver 的嘲讽,符合我们以前得出的结论。


Massey: 这就又回到第一篇文章了。如果预测有误,人们对出错的模型和算法会非常苛刻,而对出错的人类就更加宽容。我们探究了一下这个问题,而结论依旧是,人们对(模型和算法)有着更严格的要求。


真是这样吗?可是没有人,也没有什么东西是完美的呀。

Massey: 人们为什么这样,我们认为有很多原因:有一条就是,人们相信人类能够逐渐进步,而模型则相对固定。这两种观念都不一定是对的。模型能逐渐完善,而人类却不一定能逐渐进步。他们那种想法听着很有道理,但不一定正确。确实,某些情况下人类能比模型进步得更多,但我们认为,人们对这种情况期望太高了。


你们的研究与领域内其他的研究相比,有什么特别之处吗?

Massey: 探讨模型决策和人类决策之间的差异,我们并不是第一个。人们已经认可几十年了:模型很靠谱。不过,模型为什么靠谱,以及如何改变人们(对它的看法),我们在这一方面的研究比较新颖。



“不先查明病因,就没法开出药方。”

——Cade Massey



Simmons: 以前很少有研究者记录过人们排斥算法的理由。倒是有一些非正式的研究,有一些文章写道为什么人们会讨厌它,但没有人真正系统地研究过。


Massey: 说到底,还是动力的问题。我们研究的动力是,如果我们要与一些组织合作,让他们使用更多的模型,那我们就必须弄清楚如何才能消除他们对模型的偏见。不先查明病因,就没法开出药方。


你们接下来的研究方向是什么呢?

Massey: 我们还会继续研究还有没有别的因素造成人们排斥算法,但我们更希望能在现实世界中检验我们的理论。如果我们跟专业人士合作,涉及真实的金钱利益,他们也会有那种偏见吗?我们又如何帮助他们?有好几个与我们长期保持联系的组织,他们也很感兴趣,想要看看我们在实验环境中的结论是否在现实中成立,并愿意对他们的员工和客户展开研究。


往期

《从细菌到巴赫:心智的进化》——意识揭秘?

丹内特声称,不存在“困难问题”,意识不比重力更神秘。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存