近期,一份來自斯坦福大學(xué)的研究聲稱,他們的算法可以通過對照片中人物的表情、動作和神態(tài)進行分析,推斷出人物的性取向。 但批評家卻認為,這只是披上了人工智能外衣的偽科學(xué)和面相學(xué)。這些早已被西方科學(xué)世界摒棄的落后觀念,如今在新科技的掩飾下,重新抬頭。 研究的狹隘性斯坦福的研究給出了一個看似很高的判斷精確度:當人工智能對單張照片分析時,它猜對圖中男性性取向的幾率為81%,而女性則為71%。
當每位被分析人物的照片增加到5張時,算法分析男性和女性的性取向正確率分別高達91%和83%。 但問題是,研究人員在測試時,是按兩人一組的形式并行測試,每組人物一“直”一“彎”,因此,即使人工智能只是瞎蒙,都能有50%的準確率。
而且,研究人員聲稱算法的分析只專注于五官研究,而采用的VGG-Face軟件可最小化流動性因素,如打光、姿勢和表情等的干擾。 但人工智能面部識別方向的研究人員Tom White 則表示,VGG-Face 捕抓那些流動性元素能力也很強。
來自美國歐柏林大學(xué)的社會學(xué)教授Greggor Mattson 指出,由于這些照片是從約會網(wǎng)站中抓取的,意味著,這些照片本身就是由用戶專門精選,用來吸引特定性取向的人。 也就是說,這些照片都是用戶演繹出來,迎合他們認為社會對該性取向人群的定位,換言之——刻板印象。 雖然研究團隊也曾將算法拿到研究以外的素材進行測試,但那些素材本身也是具有偏見的。畢竟,并不是所有男同志都會給“我彎我自豪”這類頁面點贊,而有點贊的人,也許也可能會趨于迎合特定刻板印象。 而他們所忽略的,是這個群體中所包含的,無數(shù)的無規(guī)律的非典型行為。
這個研究的主負責人Kosinski 也表示,他的研究也可能是錯的,并表示“想要核實結(jié)果正確性,我們還得進行更多研究。”但如何才能確定研究不會帶有偏見呢?對此,Kosinski 的回應(yīng)是:
想要測試和驗證一個結(jié)果的正確性,你并不需要理解(研究)模型的工作原理。 而The Verge 則認為,正是這種研究中的不透明性,才會使得這些研究充滿了誤導(dǎo)性。 人工智能也是人類帶著偏見制造的新工具
在歷史的長河上,人類將自身偏見投射于當時最好工具的例子一直都很多。 而將人類外表和人的個性和本質(zhì)關(guān)聯(lián)的觀念,從古希臘時期就已經(jīng)存在了,而到了19 世紀,更是被工具賦予了“科學(xué)”的假象。 當時的面相學(xué)研究者認為,人類額頭形成的角度,或是人鼻子的形狀,都可作為判斷一個人是誠實還是有犯罪傾向的例證。雖然這些說法早已被判斷為偽科學(xué),但如今卻在人工智能時代“重獲新生”。
去年,來自上海交大的研究團隊還聲稱研發(fā)了一個辨識罪犯的神經(jīng)網(wǎng)絡(luò)系統(tǒng),引來了人工智能社區(qū)怒斥,三名來自Google 的研究人員更是撰寫萬字長文批評這些研究者。 而一家名為Faception 的新創(chuàng)企業(yè)也聲稱可以通過面容分析來識別恐怖分子。
但是,人工智能就真的可以客觀地分析和研究這些數(shù)據(jù)嗎?澳大利亞國立大學(xué)的社會學(xué)講師Jenny Davis 并不同意:
人工智能并不是真的純“人工”。 機器學(xué)習的方式就和人類學(xué)習的方式一樣。我們從文化中提取并吸收社會結(jié)構(gòu)的常態(tài),而人工智能也是這樣。 因此,它(人工智能)也會再建、擴大并且延續(xù)我們?nèi)祟悶樗鼈冊O(shè)下的道路,而這些道路,一直都將反映現(xiàn)存的社會常態(tài)。 而無論是根據(jù)面容來判斷一個人是否誠實,或是判斷他的性取向,這些算法都是基于社會原有生物本質(zhì)主義(biological essentialism),這是一種深信人的性取向等本質(zhì)是根植于人身體的理論。 Davis 還指出,這些是“很有用”的理論,因為它可以從特定人群中提取出某種特質(zhì),并通過將該特質(zhì)定義為“次要、劣勢”,來成為原本就有偏見的人群進行歧視的“正當理由”。
今年年初,來自巴斯大學(xué)和普林斯頓大學(xué)的計算機科學(xué)家就曾用類似IAT(內(nèi)隱聯(lián)想測驗)的聯(lián)想類測試來檢測算法的潛在傾向性,并發(fā)現(xiàn)即使算法也會對種族和性別帶有偏見。 甚至,連Google 翻譯也難逃偏見,算法“發(fā)現(xiàn)”并“學(xué)習”了社會約定俗成的偏見。當在特定語言環(huán)境中,一些原本是中性的名詞,如果上下文具有特定形容詞(中性),它會將中性詞轉(zhuǎn)而翻譯為“他”或“她”。
說到這里,也許大家已經(jīng)可以看出,Kosinski 和Wang 研究(斯坦福研究)的精確性已經(jīng)不是最重要的了。 如果有人想相信人工智能可以判斷性別取向,(無論準確度如何)他們都會拿來用。 因此,更重要的,是我們要理解人工智能的限制性,并在它造成危害之前中和它。 The Verge 評論道。但最麻煩的,在于大多數(shù)時候,我們都沒法察覺到自身存在的偏見,那我們又怎樣可期望我們做出來的工具是絕對公正的呢? |