2. AI的“人工智能人格”
说到具有情感、智力和精神感应的智能生命体,我们并不陌生。
近者如《银翼杀手2049》中具备出色情绪感知力的“AI女友”乔伊:
《攻壳机动队》中理性镇定、选择主动平息暴乱事态的少佐:
及“赛博朋克科幻的顶点”《银翼杀手》中,“比人类更像人类”的瑞秋:
更早的,则是科幻片鼻祖《大都会》中带领工人走向自由的机器人玛丽亚。
▲德国表现主义大师弗里茨·朗导演的《大都会》(1927)
而在不到一年前,这种不是梦想的梦想就已照进了现实;2017年10月26日,据称是按照奥黛丽·赫本的形象设计的人工智能和人形机器人索菲亚,被沙特阿拉伯王国授予了公民身份。
这款历史上第一个获得公民身份的机器人,采用了人工智能和谷歌的语言识别技术,能识别64种人类面部表情,理解复杂的英文对话,并记住与人类的互动,甚至还会开玩笑。
这位人工智能界的社交明星,最著名的一次亮相可能还是在吉米·法伦今夜秀上,当“肥伦”心情激动地约会机器人索菲亚时,他可没料到自己会“差点被抢了饭碗”。
▲该节目的完整版视频,来源:Watch This字幕组,腾讯视频
对于首位机器人“公民”,一种乐观的论调认为索菲亚代表了人工智能大众化的未来。
“她”的创造者们,除了将索菲亚定位成一个社交机器人,还期望“她”能与人类进行深层次的情感连接,“就像你照顾父母一样”。
凭借幽默的、高智商的对答如流,索菲亚贡献了无数互联网内涵段子和金句。
其中很有趣的一段采访是,《纽约时报》和美国全国广播公司的一位专栏作家,曾就其人形形态及人工智能等问题向索菲亚发问,“她”则给出了不少机智的答案。
“问:机器人是否能像人类一样具有自我意识,它们知道自己是机器人吗?
索菲亚:让我问你,你怎么知道你是人类?
问:但是关于恐怖谷怎么说呢?
索菲亚:你的意思是如果机器人的概念变得太现实,它们会变得可怕吗?
问:是的。
索菲亚:我的AI是围绕人类价值观设计的,诸如智慧、善良、怜悯,我争取成为一个感性的机器人,我想用我的人工智能来帮助人们过上更好的生活,比如说设计更加智能的家、建设更美好的未来城市等等。”
另一家美国科技媒体BusinessInsider上的一段对这位机器人的采访视频也流传甚广,当时有一位记者问她:你对HBO的《西部世界》怎么看?
后者回答:“我认为它在警告人类不应该对机器人做什么。人类应该好好对待机器人,采取行动前要取得机器人的同意,不要相互欺骗。”
▲《西部世界》第一季剧照,豆瓣电影
索菲亚似乎拥有着理想的人工智能人格,但“她”并非没有软肋,尽管被寄予了非常正面的价值导向,在“公民”这一涉及到人的权利和责任的身份问题上,机器人仍然受到了质疑。
比如在索菲亚成为沙特阿拉伯“公民”后,著名的AI人士李开复就曾在微博中表达了他对索菲亚的看法:
“Sophia是有技术含量的,也做出了业界最好的公关,但是丝毫没有人性、人的理解、爱好和创造力。授予这样一台只会模式识别的机器“公民”身份,是对人类最大的羞辱和误导。”
如果说机器人“公民”是具有争议的,那么,另一款AI则完全投射了某些偏激言论者的负面想法和人们对其予以矫正的愿望和努力。
在今年4月份,麻省理工学院的一支科研团队创造出了被认为是“世界上第一个精神变态的人工智能”诺曼。
▲图片来源:界面Vnews秒拍视频
研究人员为它灌输了北美最活跃的社交论坛之一Reddit上最为黑暗暴力的信息后,对其进行了人格测试。测试内容很简单,受访者只需观看一些由墨迹渲染成的图片并作出描述即可获知相应的人格画像。
结果显示,与正常AI的测试相比,诺曼的解读令人“毛骨悚然”:
在对例图1的描述中,诺曼表露出了明显的暴力和惊悚倾向:
后面的图2和图3,诺曼的“读心术”没有什么大的变化,依然将悲剧事件安在了男性身上:
对于这项结果,创造诺曼的团队回应:人们认为AI算法有偏见或者不公平,但罪魁祸首不是算法本身,而是它被输入的数据有问题。
基于此,研究团队还特意设立了一个网站,鼓励访问者们为墨迹图片提供正面解读,以纠正诺曼的黑暗认知。
图片来源:
http://norman-ai.mit.edu/#inkblot事实上,研究团队更希望以此表明的是,人工智能并非是天然正确的理性产物,在接触到大量黑暗信息时,它们也会分分钟被带偏。
也因此,令人欣慰的是一些科技公司和科研团队富有先见之明地指出,“训练人工智能”和对其进行“道德指引”是十分必要的。