人工智能不仅能识别人脸 还能“读心”
2020-06-17 11:22:00来源:科技日报
最近,《自然》杂志发表了一篇论文,用人工智能来研究个性和面部特征之间的关系。该研究团队招募了12000多名志愿者,通过31000多张自拍,使用人工智能技术学习了128种面部特征。志愿者的人格特征分为五类,即责任心、神经质、外向性、亲和力和开放性。结果表明,基于静态人脸图像的人工智能预测人格的准确率为58%,责任感的准确率高于其他四种人格特征。使用人工智能来识别一个人的性格,这个“神秘”的操作让人们想起了以前在互联网上流行的“人工智能面孔”。然而,事实证明,使用人工智能人脸是错误的,把钱装进口袋是正确的。
那么发表在《自然》杂志和《人工智能面孔》上的研究结果有什么不同呢?我们真的能通过面部特征瞥见人们的内心吗?
面孔与人格的关系是由映射函数决定的
"“人工智能人脸”不可靠,大多是数据拟合的牵强结果。"中国科学院自动化研究所研究员孙振安在接受《科学技术日报》采访时说。
此前,媒体曾报道过“爱相面”的“吸金”套路及其明确界定的业务链。北京科技大学的翁东东教授在接受媒体采访时也表示,虽然面部识别是身份识别的主流方向,但是没有科学依据来看照片,娱乐性更强。这种程序开发门槛不高,花费数百到数千美元在网上购物平台上购买外包服务就能快速开发出来。
孙振安表示,与“人工智能人脸”不同,本文的研究收集了大量样本,利用计算机深度神经网络模型,学习了人脸特征与个性之间的相关映射函数。论文显示,研究参与者的初始样本数量达到25,202张,照片总数达到77,346张。经过数据筛选过程,最终保留的数据集包括12,447份有效问卷和31,367张照片。这些参与者的年龄在18至60岁之间,其中59.4%为女性,40.6%为男性。在此基础上,研究小组评估了128种面部特征,如嘴的宽度、嘴唇或眼睛的高度,使用神经网络来确保实验覆盖的数据的数量和多样性。获得数据后,研究人员将数据分成两组,一组用于训练人工智能,另一组用于测试神经网络的准确性。对于实验中的两类数据,用于训练的数据集占90%,用于验证的数据集占10%。
在人工智能系统的设计中,研究人员开发了一个计算机视觉神经网络(NNCV)来区分不同的人脸并记住人脸图像的特征。与此同时,研究小组还训练了一个人格诊断神经网络(NNPD),该网络根据神经网络的分析信息预测并输出五种人格特征。整个过程分别对男性和女性进行面部识别。
为了计算情绪,首先必须建立与心理活动的相关性。
通过以上研究,不难发现人脸识别有从“读脸”到“读心”的发展趋势。那么人脸识别技术需要什么样的发展才能通过照片、视频等来识别面部表情呢?
孙振安认为,人工智能的“读心术”功能目前主要是通过情感计算来实现的。
早在1997年,麻省理工学院媒体实验室就提出了情感计算的概念。情感计算旨在通过赋予计算机识别、理解和表达人类情感的能力,使计算机拥有更高的智能。在情绪计算的研究中,情绪识别是最基本、最重要的内容之一。然而,情感识别主要基于面部表情、声音、文本、生理信号等模态数据。认识人类的各种情感。
“目前,情感计算已经有了一些研究成果和进展,但是技术还不够成熟。通过面部表情分析心理活动是一种不可或缺的情感识别方式,但是面部表情识别比面部识别更困难,因为心理活动的表现因人而异,而且很难对世界上所有人的喜怒哀乐和面部数据之间的定量关系进行统一建模。首先,很难给面部图像的情感类别和强度贴上标签,“1000个观众眼中有1000个哈姆雷特”;此外,情感判断是主观的,甚至还夹杂着地域文化习俗等因素。”孙振安说,从识别到表情识别,人脸识别技术需要更先进的计算模型来建立人脸图像、视频和心理活动之间的关系。然而,目前机器人拥有无情的智商,而任忠要实现人与机器的高度和谐共处还有很长的路要走。
此外,孙振安强调,如果通过面部特征自动判断个性的技术达到成熟阶段,该技术将应用于企业招聘、职业规划、人机交互、广告和营销等领域。然而,这种基于面孔的角色识别会以一种先入为主的方式来判断角色的性格,这将带来一些伦理问题,如角色歧视和偏见。