當前位置:係統粉 >   IT資訊 >   微軟資訊 >  人臉識別情緒不靠譜!美國專家:微軟穀歌的情感識別算法或存硬傷

人臉識別情緒不靠譜!美國專家:微軟穀歌的情感識別算法或存硬傷

時間:2019-07-28 來源:互聯網 瀏覽量:

人臉識別情緒不靠譜!美國專家:微軟穀歌的情感識別算法或存硬傷(1)

編 | 李水青

導語:“AI情感識別”沒你想的那麼神通,別被它誤導。

智東西7月26日消息,近日,美國五名專家發表了一篇論文駁斥“根據表情識別情感”的方法論。這些專家耗時兩年查閱1000多項研究,證明市麵上的許多依托麵部表情識別情感的算法缺乏充分的科學依據。

據稱,這意味著包括微軟、穀歌在內的許多公司的“情感識別算法”的原理可能並不嚴謹,如果被應用到招聘、醫療、安檢等場景中,或對用戶產生嚴重的誤導作用。

人臉識別情緒不靠譜!美國專家:微軟穀歌的情感識別算法或存硬傷(2)

▲美國五名專家發表了一篇論文駁斥“根據表情識別情感”的方法論

一、熱門情感識別軟件硬傷:皺眉≠憤怒

隨著人工智能(AI)被廣泛運用於人類決策中,許多研發者表示已經可以打造能解決感情問題的AI工具。

微軟、亞馬遜及IBM等科技公司都紛紛推廣自家的“情感識別算法”。這些產品大多是基於麵部表情識別人的感受,例如,如果人們皺眉、撅嘴就意味著生氣等。

“情感識別算法”可以被應用到多種場景,比如求職平台軟件可以通過自動監測“憤怒”情緒的算法係統,為招聘企業過濾一些情商不達標的候選人。

“一些公司號稱他們已經完全可以通過算法識別情感,但是數據表明並非如此。它們的算法可以識別到皺眉,但這不等於檢測到憤怒情緒。”美國東北大學心理學教授Lisa Feldman Barrett說。Barrett等五位科學家耗時兩年,將其研究成果發表在論文《再論人類情感表達:從人類麵部表情辨別情緒的方法論麵臨的挑戰》中。(論文原名為:《Emotional Expressions Reconsidered: Challenges to Inferring Emotion From Human Facial Movements》)

人臉識別情緒不靠譜!美國專家:微軟穀歌的情感識別算法或存硬傷(3)

▲研究者使用麵部動作編碼係統(FACS)來描述成人的麵部結構

二、耗時兩年,查閱1000多項研究

該論文耗時兩年,論文作者查閱了1000多項不同的研究。五位作者來自美國東北大學、格拉斯哥大學等機構,都是情感科學領域的不同理論陣營的傑出科學家。他們受美國心理科學委員會所托,仔細檢查相關研究的證據。“起初,我們不確定是否能就數據達成共識,但我們最終做到了。”Barrett說。

研究表明,人類情緒的表達方式極其豐富複雜,很難靠簡單的麵部表情識別。

Barrett說:“數據表明,當人們生氣時,在平均不到30%的時間裏他們會皺眉。故皺眉不等於憤怒,皺眉隻是‘憤怒’的眾多表達方式之一。這意味著在超過平均70%的時間裏,當人們生氣了是不皺眉的。而且關鍵是,當他們不生氣時,他們也會經常皺眉。”

因此,提供這類“情緒識別算法”的公司往往會誤導消費者。

“你確定要以此為基礎做決定嗎?”Barrett說,“當你在法庭打官司,在醫院等診斷或是在機場過安檢,你願意讓那30%的概率來‘裁決’你嗎?”

三、承認表情有用,也要考慮語言、情境

當然,按照社會約定俗稱的習慣,人們會主動地使用表情來表達情緒。但是,當人們進行麵對麵互動時,並不會隻從麵部分析彼此的情緒,而是會通過著裝、動作、語言等多種因素,聯係個人經曆、傳統習俗、人際關係等多種背景信息。

該論文認為在情緒研究領域存在著各種各樣的刻板印象。具體而言,它反駁的是“通過表情來獲取情緒‘指紋’”的理論。這種理論源於20世紀60年代心理學家Paul Ekman的研究。

Barrett等學者表示,一些理論主張麵部表情與情緒之間存在強相關性,這些理論的相關研究在方法上大多存在缺陷。例如,拿演員表情來說,演員常常被要求從有限的情緒中選擇一種,如“憤怒”,進行表演,從而以某些方式把這種“憤怒”情感傳達給觀眾。

人臉識別情緒不靠譜!美國專家:微軟穀歌的情感識別算法或存硬傷(4)

▲當人們被要求按照自我理解做表現同種情緒的表情時,這些表情獲得的AI判別結果差異很大

“雖然演員能選擇的抽象情緒種類有限,但是這些情緒轉化為直觀的表達,就很複雜了。”Barrett說,“當一個演員要表達憤怒時,他可能會哭、會大喊、會笑或隻是靜靜地坐著,然後思考著複仇計劃。你能接受演員因為用“皺眉”表達憤怒而獲得奧斯卡獎嗎?相信很少有人愛看這種表演。

四、要考慮更多變量和變量的優先級

然而,這些人類情緒的微妙之處很少被“情感識別工具”的締造公司承認。例如,微軟在其相關產品的宣傳中稱,其AI情緒識別軟件可以“根據麵部表情來識別八大情緒”。

對此,相關公司常說,他們的分析是基於更多的數據信息,而不僅僅是麵部表情。那麼問題在於,它們的算法是是否對這些數據進行加權,以及如何做到變量權重平衡的?

據稱,“情感識別”市場規模已達到200億美元。業內領先公司之一Affectiva表示,它正在嚐試收集更多情緒表達變量。例如,它推出了一種工具,能夠通過結合表情和語音來綜合衡量駕駛員的情緒。也有其他研究人員正在研究通過步態識別和眼動追蹤來識別情感。

Barrett相信,通過更豐富的變量分析,在未來我們將能夠更準確地識別情感。“我絕對相信這是可能的。”她說,“但這並不意味著我們不該阻止目前​​誤導性技術的擴散。”

結語:情感識別“不簡單”,變量可靠性最關鍵

當前一些“情感識別算法”選擇變量的標準不是變量的“可靠性”,而是這個變量能不能被衡量。“情感識別產品”所用的機器學習是一種過於擅長尋找聯係的技術,這可能會導致各種膚淺、甚至虛假的分析。

比如一些機構利用機器學習算法,通過分析保姆在社交網站的發帖,來洞察其“態度”,進而分析保姆態度和公司財報記錄、預測股票價格的關係等等。

如果這類誤導性的“情緒識別工具”被普及開來,我們可能會慢慢接受它並讓它影響我們的社會人格成長曆程。社會學家庫利(Charles Horton Cooley )認為,來自外部的期待和評價是一麵鏡子,人類會依據“鏡中我”來實施行動,以使自我符合外部的期待和評價。誤導性的“情緒識別工具”像一麵“哈哈鏡”,當人們看到自己的表情被其線性的解釋,人自己漸漸也就相信那是真的了。

Barrett說,或許該論文最大的價值在於讓我們不要過於簡單化地認識人類情緒。情緒的表達是多樣、複雜和有情境的。

論文鏈接:https://journals.sagepub.com/stoken/default+domain/10.1177%2F1529100619832930-FREE/pdf

文章來源:The Verge

我要分享:

最新熱門遊戲

版權信息

Copyright @ 2011 係統粉 版權聲明 最新發布內容 網站導航