在人工智能中,我们通过效用(utilities)描述智能体在特定状态下采取某种行为的后果。例如,两个智能体A和B对弈,如果经过一系列步骤,A赢了,可以设其行为的效用为1,如果A输了,就设其效用为-1。类似地,我们也可以用效用描述人的感受。例如,一个人喜欢吃冰淇淋,如果通过他的行为,没有得到冰淇淋,就设这个行为的效用是0,如果得到了一个冰淇淋球,就设效用是1,如果得到两个球就设效用是2。一般情况下,我们认为人类是“理性的”,即始终选取效用最大的行为,但事实并非如此。我们来看一个彩票的例子。
为了便于量化,并排除行为的阻力等因素,心理学家做了一个简单的摸彩票的实验。每个受试者都会面临两个选择,要么去摸一张彩票,要么直接获得X元的现金。彩票有50%的概率开出1000元的现金,还有50%的概率不会开出任何奖金。心理学家不断调整X的数额,并记录受试者的反应。实验结果表明,当X为400时,仍有超过一半的受试者选择获得现金,而不是去摸彩票。
这与最大效用期望理论并不相符,也就是说,多数人在这个实验中选择了次优解,而不是最优解。而导致这种行为的原因在于,实验中包含了一个特殊的因素——风险。
由于风险的存在,效用不能简单地使用加权收益来刻画。我们有两个概念与此相关,一个是期望收益,即收益的加权平均,在上面的例子中期望收益是500元;另一个是等效收益,即可替换的无风险收益,在上面的例子中是400元。一般而言,等效收益会小于期望收益,而他们的差价称为保险费(insurance premium),即人为了规避风险必须付出的代价。保险公司挣的正是这笔保险费。
我们还有一个疑惑:人始终是规避风险的么?在什么样的情况下人更乐意接受风险呢?Allais在1953年做过一个经典的实验。
第一组实验,让受试者在A和B中做出选择。选A有80%的概率获得4000元,有20%的概率一无所获,选B一定可以获得3000元。结果多数受试者选了B。第二组实验在C和D中选择,选C有20%的概率获得4000元,选D有25%的概率获得3000元。这一次,多数受试者选了C。
很奇怪,这两组结果看上去是矛盾的。第一组中的受试者倾向于规避风险,而第二组的受试者却迎合风险,争取收益的最大化。为什么会这样?
事实表明,第一组中20%的风险起到了决定性的作用。当人们本可以稳稳当当地获得收益,却选择冒着风险最终一无所获的时候,除了金钱的损失,还想到了什么?悔恨?自责?但是效用模型中并没有考虑这些情绪因素啊!正是由于这个模型过于简单,才导致了人类“非理性”选择“次优解”的行为。当风险较大且不可避免时,人类一般会服从理性的判断,争取最大的收益。