听说AI看脸就知道性取向,不服气的我做了一个实验

图片来源@视觉中国

  注:本文来自于公众号量子位(QbitAI),作者:栗子、晓查。

  斯坦福有一个看脸预测性取向的AI,如同相面一般,根据面部特征就能判断一个人是直是弯,而且准确度喜人:

  男生81%,女生74%。

  研究结果一公布,网友沸腾。也有不少人怀疑:AI哪有这么准?

  凡事需得研究才会明白。有位名叫约翰(John Leuner)的少年,不止嘴上不信,身体还积极地复现了算法,要用新的数据做个试验,看看它究竟有没有那么准。

  成绩依然不错:男生的准确率68%,女生达到了77%。

听说AI看脸就知道性取向,不服气的我做了一个实验

  这个结果,又引来网友们的一波激烈讨论。这一次,大家的关注点不仅仅是准确率本身,还有少年在复现研究中展现出的对AI的观察。

  凭什么说我是直男

  AI到底是靠哪些线索,来判断人类的性向?

  约翰用了控制变量法,仔细观察人脸的每个角落。

  首先,他用眼睛、眉毛、轮廓、嘴巴和鼻子的特征,单独指导AI的预测。

听说AI看脸就知道性取向,不服气的我做了一个实验

  实验发现,男生的眼睛和眉毛,对AI预测性向最有指导意义,鼻子就没有帮助;

  而对女生来说,眼睛是最重要的,轮廓是最次要的。

听说AI看脸就知道性取向,不服气的我做了一个实验

  接下来,是胡子和眼镜。

  约翰发现,在留胡子和不留胡子的男生数量相同的数据集里,AI判断男生性向的准确度,并没有受到影响。

  眼镜也一样,没有左右AI的预测。也就是说,靠刻意的伪装来欺骗AI,并不是个好办法。

听说AI看脸就知道性取向,不服气的我做了一个实验

  神奇的是,就算缩小成5x5尺寸,AI的判断依然没有受到严重的影响。AUC基本保持在0.6-0.8之间,偶尔还会超过0.8 (下图之左虚线为5x5,右为大图) 。

听说AI看脸就知道性取向,不服气的我做了一个实验

  所以,大概是靠气质判断的吧┑( ̄Д  ̄)┍。

  为了做这些探索,约翰复现了一个深度神经网络模型和一个基于面部形态学(FM)的模型,还从约会网站中抓取了50万张照片,从中选取2万多张,做成性别、取向平衡分布的数据集。

  他用VGG-Face神经网络,从图像中提取鼻子、胡须、眉毛、嘴角、发际线等面部特征,然后将照片转换成4096个元素的特征向量。

  因为是约会网站,这些照片还会带有年龄、性别、性取向等标签信息。

  然后作者根据面部特征训练了一个回归模型来预测性取向。2017年斯坦福大学的研究就是这么做的。当时,Kosinski教授把人脸所有相同性取向的脸合成了4张图片:

听说AI看脸就知道性取向,不服气的我做了一个实验

  显然,这四张合成面部图片之间存在着差异。Kosinski教授就此断言,性取向通常伴随着特有的面部特征。

  但是我们深究一下就会发现其中的问题:男同性恋的人脸合成图显示有眼镜。因此算法可能是根据脸上的配饰做出的判断。

  fast.ai创始人Jeremy Howard认为,说AI无法通过照片判别性取向显然是不客观的,但相关性不等同于因果关系。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

[!--temp.dlad--]