商業與金融

利用照片判別性取向,人工智能新突破

性取向

斯坦福大學與某約會網站合作,利用其圖片數據庫開展一項新研究,發現原來單憑看臉上特徵就能說出一個人的性取向。

普通人用肉眼是無法辨識到這些特徵的,但利用深度神經網絡,就能對臉部進行複雜分析。研究指出,深度神經網絡根據男性和女性照片判斷性取向的準確率分別可達91%和83%,相比人類憑「直覺」判斷,準確率至少高出20%。

研究人員相信,人類的性取向為先天性的。他們根據出生前激素理論(即下巴的線條和鼻子形狀一部份是由胎兒在子宮內的性激素決定的,雄激素過多會導致女性同性戀,過少則會導致男性同性戀),利用人工智能對照片上的鼻子和下巴形狀等非「後天改造」的生理特徵進行分析。

當然,雖然理論提倡臉部特徵較女性化的男性有更大可能是同性戀,但生理特徵和性取向並不一定是由單一因素而定的,因此,即使深度神經網絡擁有極高準確率,要更準確地分析人的性取向,則需要更多的客觀因素,否則就會變成「以貌取人」。

Michal Kosinski教授是該研究的學者之一,他指出:「其實從臉上特徵的確可以觀察出無數的信息,例如一個人的過去、發展機會和健康狀況等。」他們認為,深度神經網絡破解人類面部「密碼」只是時間問題。

然而,這次革命性的突破或許帶來的是公民自由權和私隱問題。

 

To Top