#爱范儿#看表情就知道谁说谎?不行,搭上 AI 也不行


北京联盟_本文原题:看表情就知道谁说谎?不行 , 搭上 AI 也不行
#爱范儿#看表情就知道谁说谎?不行,搭上 AI 也不行
本文插图

美剧《别对我说谎(Lie to Me)》男主 Cal Lightman 堪称「人肉测谎仪」 。 通过观察人的面部表情 , 就能看出对方是否在说谎或是有所隐瞒 。
Lightman 的厉害不仅在于他可以辨别分析不同表情背后的含义 , 还在于他捕捉「微表情」的速度之快 。 有数据指出 , 人类一般的表情会维持 0.5-4 秒 , 但那些被认为能让专家「洞察天机」的「微表情」维持的时间通常则少于 0.5 秒 。
#爱范儿#看表情就知道谁说谎?不行,搭上 AI 也不行
本文插图

不过 , 现在 Lightman 博士有「劲敌」了 。
越来越多研究人员开始将人工智能融入测谎仪中 , 以人类可能永远都无法达到的速度侦察「微表情」和肢体语言 , 甚至自主寻找新的识谎方法 。
它们会成为更强的测谎仪吗?
现代测谎仪:从提速到寻找新模式
早在 2013 年 , 亚利桑那大学开始在美国多个机场测试一款名为 Embodied Avatar 的自助入境机器 。 研究团队声称这款机器可通过「非入侵式可信度测试」 , 将涉嫌提供虚假信息的入境旅客挑出来 。
#爱范儿#看表情就知道谁说谎?不行,搭上 AI 也不行
本文插图

▲ Embodied Avatar , 图片来自 《连线》
简单来说 , 这台机器会向旅客提出「你是美国公民吗?」「你是否曾被拘捕?」等问题 , 并借助机器上的高清摄像头和麦克风获取旅客的表情、肢体语言和语气信息 , 实时用算法分析 , 寻找可疑之处 。
, Embodied Avatar 的识别准确率在 60%-75% 之间 , 有时候也会高至 80% , 高于人类评判的 54%-60% 准确度 。
美国国土安全部资助了这个研究项目 , 但在测试评估后 , 他们放弃了它 。 有内部人员是因为当时研究的技术不够成熟 , 而另一个知情人士则说问题在于速度:「我们得在几秒内就筛完 , 我们没法耗几分钟来做这个」 。
无论是 Embodied Avatar 还是美剧男主 Lightman 博士 , 它们基于的其实都是心理学家 Paul Ekman 的理论 。
#爱范儿#看表情就知道谁说谎?不行,搭上 AI 也不行
本文插图

▲《别对我说谎》主角的原型就是 Paul Ekman , 图片来自维基百科
Ekman 是情绪研究的先锋 , 他整合的「情绪集」里包含了上万种不同的人类表情 。 他认为特定情绪会触发难以控制的非自愿微表情 。 多年来 , 他长期担任美国政府部门的顾问 , 并以安全保密为由 , 拒绝公开部分研究数据 。
Silent Talker 的人工智能虽然也会追踪面部表情 , 但它则抛开了 Ekman 的研究 , 直接用人工智能做出一套新理论(虽然算法并不能向你解释理论是啥) 。
心理学家经常说我们得找到系统运行的某种模型 , 但我们没有一个可行的模型 , 而且我们也不需要 。 我们让 AI 来想就好了 。
Silent Talker 的研究人员O’Shea 说 。
据他介绍 , Silent Talker 这套算法 , 会同时监控接受测试者 40 个身体「频道」 , 包含从眨眼速度到头部移动的角度等各种细节 。
#爱范儿#看表情就知道谁说谎?不行,搭上 AI 也不行
本文插图

▲ 图片来自 The Intercept
通过对训练数据的分析学习 , 他们声称 Silent Talker 找到的不是普通「说谎时会做什么动作」这类规律 , 而更像是「规律的规律」—— 寻找说谎者不同动作和情绪之间的多方面联系 , 官方声称准确率可达到 85% 。
和 Silent Talk 的「广布网」相比 , 美国犹他州的创业公司 Converus 则将关注集中在人的眼睛上 。


推荐阅读