哎,看来还是不能把 AI 们想得太聪明,会失望的

图片:《她》 哎,看来还是不能把 AI 们想得太聪明,会失望的

为什么现在的 AI 都是女性形象?从人机交互的心智模型谈起

竹间智能 Emotibot,致力于打造中国首款情感机器人

一个有趣的问题:为什么大部分 AI 机器人、语音助手等都是女性身份或女性设定,如 Siri,Cortana,Alexa?

有人说是因为大部分研发人员都是男性,显然他们对研究女性 AI 更有兴趣;或者从消费者角度来看,对于语音助手、智能音箱等科技类产品,男性消费者也必定居多。事实上对于这个问题,可能开发者也不一定说得清楚,真正的原因,需要从深刻的人类心理学背景说起。

作为一个聚焦于人机交互的研发团队,我们在研发小影机器人与类脑对话系统时,就有意识地引入了心理学。其实 AI 的研发已经不仅是一个技术和工程问题,更是一个心理学和社会学的问题。所以本文试图结合我们在 AI 人机交互领域的研发经验,从心理学角度谈谈 AI 与人类交互的心智模型,以及好的人机交互应该如何贴近大众心理。

首先,心智模型(Mental Model)是人们对外部世界的认知和解释,它会直接影响人的行为。人类在经历或学习某些事件之后,会归纳出一些对事物的发展及变化的结论,然后像写剧本一样,把这些经验再浓缩成多个不同类别的剧本,等到重复或类似的事情再度发生,我们便不自觉地应用这些先前写好的剧本,来预测事物的发展变化。

当然,人们通过学习和使用心智模型能够不断修正和改善现有的心智模型。但一般来说,人们对于现象所持有的心智模型大多都具有不完整性(Incomplete),是偏向直觉的、非理性的,容易受到直接经验、他人经验的影响,也会受到类似事物的影响,对世界的观察的影响。

人与 AI 交互的心智模型

正如人与 AI 交互的心智模型,就较多地受到了外界的、非理性的、非直接经验的影响。因为大众接触 AI 最多的渠道恐怕就是科幻片,其次是企业、媒体宣传,而这两个主要的信息来源都存在夸大其实的问题,因此大众对 AI 产生了过高的幻想。如人与对话机器人交流时,同样是在文本框中输入文字,对方返回文字,感觉上似乎跟我们和真实人类交流的形式一样,因此我们就会误以为自己是在和人交流。

因此,大众对 AI 的心智模型往往是这样的:

像人一样

像科幻片中全能的机器人一样

而这种心智模型的特点,对 AI 产品的开发来说就意味着极大的挑战。大多数情况下,用户就会按照这种心理预期去和 AI 交流:既然 AI 能够像人一样交流,那么我就能和你聊任何话题,不再像使用 APP 那样,需要按照设计好的交互流程来进行。即便 AI 提前说明了自己的功能范围,用户也鲜少考虑到。例如:

AI:“你好,我是你的天气小助手,我可以告诉你天气,请问你在哪个城市呢?”

用户:“你叫什么名字啊?”

AI:“这不是个城市哦,请问你在哪个城市呢?”

用户:“你问你叫什么名字?”

AI:“这不是个城市哦,请问你在哪个城市呢?”

用户:“你个傻×,你不是可以获取我的位置吗?还问!”

AI:“这不是个城市哦,请问你在哪个城市呢?”

……

如此继续,用不了两分钟,用户就会认为它是个“智障”了:难道刚认识的两个人不应该相互介绍一下吗?敢情你只听得懂城市的关键词?

还有,既然你是 AI,那么即使不像科幻片中一样,至少也有点智能吧?

用户:“打电话给我妈”

AI:“你母亲叫什么?”

用户:“连我妈是谁都不知道,算什么人工智能?!”

这时机器人心里也很委屈,你的通讯录里面没有“我妈”这个人啊……

事实上,现阶段人与 AI 交互的主要矛盾之一,就是用户对 AI 高大上的期望,同机器人有限的能力和功能之间的矛盾。过高的期望带来快速的失望,这就导致很多 AI 机器人或语音助手的用户黏性较低,比如 Siri 做了这么久,很多人也只是在误操作的时候才会唤醒它。

人机交互设计应如何贴近大众的心智模型

改变大众的心智模型是很难的,所以一般产品设计会尽量贴近人们的心智模型,例如在智能手机刚兴起的时候流行的拟物化设计,就是帮助用户理解和学习操作的好方法。目前在人机交互领域,自然语言理解(NLU)技术的发展使得人机交互开始回归到自然的人类语言对话中,这种符合人类沟通本能的方式也必将成为未来人机交互的发展趋势。那么基于人与 AI 交互的心智模型特点,并借鉴人类之间交流的规律,就可以帮助 AI 类产品的开发者或团队找到人机交互的设计灵感和方向。另外,这一过程中可以通过大量的实验来验证这些规律是否可以应用在人机交互的产品中。

以下从人类社交的两个心理学规律说起:

1.自我表露是人与人社交中一个很重要的因素,表露的程度可以标志关系的亲密度,同时,恰当的表露可以推进关系的建立和深入发展。

在生活中,我们与不同关系的人聊天的内容是不同的,与刚认识的人会聊天气、娱乐、旅游、体育这些轻松的、非个人的话题;而与熟悉的人会聊感情、烦恼、事业这些个人的、深入的话题。我们在与不熟悉的人的交流过程中,当开始“敞开心扉”聊个人问题时,就到了建立亲密关系的关键阶段。如果只是聊天气,认识几年也只是点头之交。

另外,在社交中存在社会交换理论(social exchange),即如果仅仅一方进行表露,另一方没有,表露的一方就会感到挫败,进而会减少表露。所以,恰当时机的互相表露是建立亲密关系的关键,这一点在人与 AI 的交互中同样适用。

研究指出 AI 对话机器人也需要向用户倾诉、表露,social exchange 也存在于人与 AI 对话机器人之间。只有 AI 的倾诉和表露才能获得用户更多的信任,从而让用户更加愿意向机器人进行表露。

但很多时候,AI 对话机器人的开发者会忽略这一点。他们希望机器人与用户交流、获得用户信任,其实首先需要赋予机器人足够可信、完整的背景以及生活信息等,这样在交流的过程中,机器人不仅扮演单纯倾听用户的角色,更多时候能够作为“交换”主动告诉用户关于机器人自身的背景信息,甚至感情和烦恼,从而推进亲密关系的建立。

2.机器人的性格和社交风格也是影响社交的重要因素

关于这一点,科幻小说和电影已经展示了各种可能性,有冷酷的、乖巧的、机灵的、忠实的机器人形象。那么应该如何设计机器人的性格?在性格设计中应该考虑哪些因素呢?也有研究进行了这方面的探索。根据 Isbister 的研究,机器人首先需要保证自己性格在各方面表现的一致性,包括文字、语音、形象设计与性格设定的一致性,其次人们可能倾向于喜欢拥有与自己不同性格的机器人

性格是非常复杂的影响因素,每个人在交友中都多少会有自己的性格偏好。对性格的喜好还会受到“身份”的影响,因此很难有一种“通用的”机器人性格可以胜任所有的场景。例如在 Tay 等人的研究中发现,人们对于机器人的性格偏好,还会受到机器人所扮演角色的性格刻板印象(stereotype)的影响,例如人们更喜欢内向的安保机器人、外向的医护机器人等。也就是说我们在设计对话机器人的时候,需要考虑它所需要扮演的角色或“职业”,从而设计与之相匹配的性格。

最后再回到文章开篇提到的问题,为什么 AI 的设定基本都是女性?

关于机器人性别的影响也有许多人研究过,例如 Siegel 等人研究发现男性更容易接受女性机器人的影响,而女性对机器人的性别似乎并没有什么偏好;另外,Tay 等人的研究指出,人们对机器人性别的偏好,同样受到了机器人所扮演角色的性别刻板印象的影响,比如人们会偏好男性的安保机器人、女性的医护机器人。

那么对于这个问题的答案,可以从以下三个方面来总结:

1. 常见的 AI 机器人的功能恰好是刻板印象中由女性所扮演的角色,例如客服、助理等;

2. 女性 AI 机器人的设定更易被大众接受;

3. 技术大多都是男性。

参考文献:

【1】Kang, S. H., & Gratch, J. (2011). People like virtual counselors that highly-disclose about themselves. The Annual Review of Cyber Therapy and Telemedicine, 167, 143-148.

【2】Isbister, K., & Nass, C. (2000). Consistency of personality in interactive characters: verbal cues, non-verbal cues, and user characteristics. International journal of human-computer studies, 53(2), 251-267.

【3】Tay, B., Jung, Y., & Park, T. (2014). When stereotypes meet robots: the double-edge sword of robot gender and personality in human–robot interaction. Computers in Human Behavior, 38, 75-84.

【4】Siegel, M., Breazeal, C., & Norton, M.I. (2009, October). Persuasive robotics: The influence of robot gender on human behavior. In Intelligent Robots and Systems, 2009. IROS 2009. IEEE/RSJ International Conference on (pp. 2563-2568). IEEE.