另外,该 AI 模型还能够在 8 种常见的面部情绪中,给出更精确的监测定位(如右下角)。
研究人员称,该模型能够在给定的面部图像上,准确地、连续性地估计情绪效价和唤醒,是因其经过了有注释的图像数据集的训练,这些图像包含了有关效价和唤醒的信息。
同时在算法方面,为了提高模型在任务中的性能,他们使用了离散情绪类别作为辅助标签,以提供额外监督;为了防止在网络训练过程中出现过拟合问题,采用了随机过程、抖动正则化相结合的方法。
当然除了关键算法,构建机器学习系统还需要一个基本要素:合适的数据集。以上 Demo 的训练数据集为 AFEW-VA 和 SEWA,它们是研究团队专门自建的可用于训练情绪识别的深层神经网络的数据集。
研究人员说:“我们创建 AFEW-VA 数据集,目的是要验证在自然条件下模型的有效性,而不是受控于实验室条件下的有效性。因此该数据集包含的内容均来自真实世界所拍摄的图像和视频。”
在最初的评估中,深度神经网络模型能够在自然条件下拍摄的人脸图像中达到前所未有的准确度,而且在 AffectNet 和 SEWA 数据集上进行测试时,它所表现的性能与人工标注基本能够达到一致性。
研究人员说:“我们的神经网络在两个数据集上的表现优于专家注释之间的一致性。”,这意味着如果将神经网络视为另一个人工注释者,那么它与人类注释者之间的一致性至少与其他人类注释者之间的一致性相同,这样的结果是非常显著的。”
更重要的是,除了性能表现良好外 , 采用深度学习更易于操作和退推广,因为它的预测是基于普通相机拍摄的图像和视频,例如它可以用于市场分析,或创造更具交互性的机器人。
论文的最后,研究人员强调,无论是情绪类型识别的精度度,还是反映不同情绪的变化过程,该 AI 模型要优于所有现有的方法。
看到这里有同学可能会好奇,AI 为什么要达到如此高的情绪识别度?
有哪些潜在应用场景其实,面部情感分析的目的是让计算机更好地理解人的情绪状态,从而创建更友好的人机交互过程。
在现实环境中,它在智能驾驶、新零售、临床医疗等诸多领域都有着广泛的应用场景,也正是这些领域对 AI 识别人类情绪的能力提出了更高的要求。
例如在智能驾驶领域,AI 对驾驶员的表情识别是提升智能汽车安全性和舒适性的关键因素。比如当系统推荐了一首驾驶员或乘客不喜欢的音乐时,通过分析车内人员的面部表情,系统便可自动 “切歌”。
或者在新零售领域,商家可以采用表情识别技术分析顾客情绪,了解他们对不同商品的喜好程度,以此推荐适合的广告,实现精准营销等等。
随着人工智能技术和相关学科的飞速发展,人们对自动化和人机交互的需求日益强烈,表情识别作为计算机理解人类情感的基础,相关研究成果也有了很大的进展,不过,总体而言仍处于实验室探索阶段,距离大规模场景落地还有很长的一段距离。
另外,据有关研究表明,人类的面部表情至少有 21 种,除了高兴、悲伤、愤怒、厌恶等 8 种常见情绪外,还有 13 种可别区分的复合表情。那么你觉得未来 AI 真的能看懂人类复杂的情绪变化吗?