从面部信息出发,技术将走向何处?正如Evgeny Osin所说,面部实际上包含着大量信息,除了鉴定性格,在其他领域,AI也有较好的发展。
比如医疗,去年1月,Nature Medicine刊登了一篇论文,论文中提出了一种深度学习算法DeepGestalt,该算法能在儿童身上检测出罕见遗传病,而利用到的,正是面部照片。
这项辅助诊断方法搭载到名为Face2Gene的智能手机APP上,该应用依靠深度学习算法和类脑神经网络,用以区分人类照片中与先天性和神经发育障碍有关的独特面部特征,利用从照片中推断出的模式,最终可以得出可能的诊断结果,同时提供可能的选项列表。
在识别遗传病Top-10上,Face2Gene准确率高达91%,已经超过了人类医生,如果在未来能够针对已知问题持续改进,就可以更好地帮助全球儿童获得更好的医疗条件。
更早的例子发生在2016年,上海交通大学武筱林和张熙在预印本网站上发表论文《使用脸部图像自动推断罪犯》(Automated Inference on Criminality Using Face Images),在论文中,吴和张指出,机器学习技术可以预测一个人是否是犯罪分子(不是犯罪嫌疑人),准确度几乎可以达到90%,他们使用的数据仅仅是证件照片。
不过,论文一出,迅速引发了AI在伦理方面的争议。一名留学在外的上海交大校友甚至公开表示:“我建议撤销这篇论文,并且上传一封公告,为不恰当的研究方法致歉。”“这篇论文给上海交大的声誉带来了很糟糕的影响,这对那些申请美国高校的上海交大学子来说,将会是一场灾难。”
不仅如此,谷歌研究员写了两万字长文对该论文进行批判,Blaise Agüera y Arcas等人一致认为,该论文在实验精度、材料选取、输入内容,和客观性上都存在较大的问题。
论文中使用的6张照片:上排是“罪犯”,下排是“非犯罪分子”。上排的人都皱着眉头而下排没有。谷歌研究人员认为,深度学习系统可能只是“学会”了这些表面的区别。
他们指出,机器学习可以用作正途,也有被误用的可能,后者往往是无意的,这种误用源于对技术问题狭隘的偏执,包括以下四个方面:
缺乏对训练数据偏见来源的洞察力;
缺乏对该领域现有研究的仔细审查,特别是在机器学习领域之外;
不考虑可以产生测量相关性的各种因果关系;
不考虑机器学习系统应如何被实际使用,以及在实践中可能有什么社会影响。
之所以上海交大的事件能引起广泛关注,是因为这项技术在科学和法律这两种绝对理性的权威力量上进行了引用和概括。如果只是针对此事进行讨论,面相结构其实是社会建构的产物,一个人的成长过程、成长环境都能对其产生影响,甚至拍摄照片时的灯光、情绪等都是不确定因子,当这些不确定因素聚集起来,论文中宣称的90%准确率还剩下多少可信度?
当我们跳出上海交大事件,从更大的维度上说,面部信息的确是尚待开发的广阔领域,如果能利用其在社会不平等上做出贡献,如DeepGestalt,那自然是喜闻乐见。但是还需要注意的是,如果完全依赖这些数据,似乎也犯下了本质主义的过错,或者说,带有了优生学的意味。
如今,借由疫情而起,摄像头部署越来越密集,监控也越来越大胆,在这样的情况之下,我们应该如何有效避免技术走向它的反面,应该怎样为技术敲响警钟。
这一点,现在很重要,未来会越来越重要。