我们可能会听Siri或Alexa提供的信息,或者听谷歌地图或Waze提供的指示,但我们会让人工智能支持的虚拟代理帮助调解团队成员之间的冲突吗?一项新的研究表明,现在还不是时候。
来自南加州大学和丹佛大学的研究人员创建了一个模拟项目,在这个项目中,一个三名成员的团队由屏幕上的虚拟代理化身支持,这个任务的设计目的是确保失败并引发冲突。这项研究的目的是将虚拟代理视为潜在的中介,以改善冲突调解期间的团队协作。
尽管一些研究人员(参与这项研究的南加州大学维特比学院工程和南加州大学创新技术研究所的盖尔·卢卡斯和乔纳森·格瑞奇)此前发现,与虚拟代理治疗师一对一的人类互动会产生更多的坦白,在这项研究“人机合作中的冲突调解:使用虚拟代理来支持任务计划和任务汇报,“当冲突发生时,团队成员不太可能与名为“Chris”的男性虚拟代理进行接触。
参与的团队成员并没有亲自接触设备(就像我们在社交媒体上看到的病毒式传播的帖子中看到的那样),而是在出现故障和团队成员之间发生冲突时,不太投入,也不太可能听取虚拟代理的输入。
这项研究是在一个军事学院环境中进行的,设计了27个场景来测试包含虚拟代理的团队如何应对失败和必然的冲突。虚拟代理无论如何都没有被忽略。研究发现,在制定任务的过程中,团队确实会对虚拟代理做出社交性的反应(点头、微笑、感谢虚拟代理的参与),但随着任务进行的时间越长,他们与虚拟代理的互动就越少。参与者并没有将他们的失败完全归咎于虚拟代理。
该研究的第一作者、丹佛大学(University of Denver)计算机科学助理教授凯斯汀•哈林(Kerstin Haring)表示:“在一起完成复杂任务时,团队凝聚力是一个非常复杂和重要的因素。”
“我们的研究结果表明,虚拟代理和潜在的社交机器人可能是各种团队中很好的冲突调解员。找出干预措施和社会反应,最终在人类团队中无缝地整合虚拟代理人,让他们表现得更好,这将是非常有趣的。”
研究报告的作者之一、南加州大学计算机科学研究助理教授、美国创新技术研究所(Institute for Creative Technologies)研究员盖尔•卢卡斯(Gale Lucas)补充称,研究参与者的一些反馈表明,他们认为虚拟代理是中立和公正的。她想继续这项工作,看看虚拟代理是否可以“帮助我们做出更好的决定”,并强调“需要什么才能让我们信任虚拟代理”。
虽然这项研究是在一个特定结构的军事学院进行的,研究人员希望开发这个项目来改善各种工作环境下的团队过程。

