TechRoomage

斯坦福大學搞了個AI演演算法,據說能識別你是不是直男,敢試試嗎?

0 1

事情開始於一項斯坦福大學的新研究。

研究人員Yilun Wang與Michal Kosinski用監督學習演演算法創造出一種新模型,可以直接從面相判斷一個人的性取向,研究論文也即將發表在美國心理學學術月刊《Journal of Personality and Social Psychology》上。

什麼?還能根據面相判斷性取向?確定我是在看科學期刊而不是誤入路邊看面相算命的小攤攤?

帶著眾多問號,我們翻看了實驗研究。

面相識「同」?

研究人員首先從交友網站的公開信息中收集了14776人的35326張照片,想在照片中提取面部特徵。從臉型、嘴型、鼻型、眉形到面部的毛髮,這些特徵全部被提取並量化。

斯坦福大學搞了個AI演演算法,據說能識別你是不是直男,敢試試嗎?

之後,研究人員用深度神經網路(DNN)從中提取與性取向有關的特徵。在此,他們引入VGG-Face DNN模型,想通過面部表情、背景、光線、圖像屬性(亮度或對比度等)等因素來表示圖像中的人臉。

斯坦福大學搞了個AI演演算法,據說能識別你是不是直男,敢試試嗎?

隨後,研究人員用預測模型、邏輯回歸等奇異值分解(SVD)等方法將圖像分類,判斷哪些圖像中的人為同性戀。

斯坦福大學搞了個AI演演算法,據說能識別你是不是直男,敢試試嗎?

最後,研究人員隨意挑選圖像,讓電腦猜測受試者的性取向,結果證明AI系統的表現明顯優於人類:在沒有穿搭風格、人物動作等因素影響的情況下,就單一面部信息而言,分類器識別男女性取向的準確率分別達到了81%和71%。

研究人員還設計對照組讓人類判斷照片中人的性取向。實驗證明,人類對男女性取向識別準確率分別為61%和54%。對比看來,演演算法的準確率明顯優於人類的直覺判斷。

如果通過5張以上照片讓系統識別人類性取向,則男女性取向準確率分別提高到91%和83%。

研究人員意外地發現,性取向與面部特徵存在些許關聯,一般情況下,男同有「女性化」特徵,女同有「男性化」特徵。比如,男同的下顎、鼻子和前額比直男大,與異性戀女性相比,女同的下顎更大,額頭更小。

誰搞出來的研究?

這篇論文的作者是Yilun Wang和Michal Kosinski。兩個人一起收集了數據並進行分析,論文為Michal Kosinski執筆完成。

斯坦福大學搞了個AI演演算法,據說能識別你是不是直男,敢試試嗎?

量子位經過查詢發現,Yilun Wang現在的身份是IDG資本駐舊金山灣區的投資顧問,投資領域專註於AI、機器人、機器學習、計算機視覺等。此前,Yilun曾在谷歌、百度深度學習研究院、格靈深瞳、微軟等公司實習。

Yilun Wang本科畢業於浙江大學,2016年在斯坦福獲碩士學位。而Michal Kosinski博士是斯坦福商學院的助理教授。2014年,Kosinski在劍橋大學獲得心理學博士學位。先後供職於微軟研究院、劍橋大學,並有過創業經歷。

斯坦福大學搞了個AI演演算法,據說能識別你是不是直男,敢試試嗎?

Kosinski還是一位活躍在各種活動和採訪中的學者。今年初的CeBIT』17大會上,Kosinski發表了一場題為《The End of Privacy(隱私的終結)》的演講。

其實Kosinski的這個演講,跟這次研究的主題一脈相承。在《隱私的終結》里,Kosinski指出人們已經在網上留下太多的」數字痕迹「,只需要通過一個強大的演演算法,把所有這些零散的痕迹收集起來,就能描繪出你的「真實樣貌」。

外界對此看法不一

這項研究出來后,不少媒體第一時間進行了報道,但是看法卻各有不同。

部分美國媒體「表示強烈譴責和極大的憤慨」,比如TechCrunch。

TechCrunch在一篇文章的標題上指責這項研究「顯示了數據時代的黑暗面」,還說這項研究將已經很脆弱的同性戀群體更加暴露於輿論漩渦中,「這也直接打擊了我們一直希望建立的平等觀念:不能以貌取人,也不能通過一兩張照片這麼簡單的東西,來判斷性取向之類的個人隱私。」

英國衛報倒是沒有那麼擔憂。這家媒體腦補了一些基於這種演演算法的AI應用場景,比如有人懷疑自己是否形婚了,可以用這個AI演演算法來測一測自己的另一半,或者青少年也可以用它來測自己、測同學……

衛報還因為這個AI演演算法跑去採訪了多倫多大學心理學副教授Nick Rule,這位學者曾經研究過gaydar背後的科學。但對於斯坦福大學的這項研究,Nick Rule卻潑了英國衛報一盆冷水,他認為這個AI演演算法非常「令人不安」,擔心可能有人出於惡意「根據人們的外表來分析他們、識別他們」。

關於這個AI演演算法,你怎麼看?

Leave A Reply

Your email address will not be published.