如何培養(yǎng)向善的人工智能?
收集更加全面的數(shù)據(jù) 平衡安全性和可用性 避免“性別偏誤”……
如何培養(yǎng)向善的人工智能?
伴隨著ChatGPT應(yīng)用所引發(fā)的熱烈討論,AI所存在的風(fēng)險和問題再度走入公眾視線。如何培養(yǎng)向善的AI成為一個重要命題
專家認(rèn)為
未來需要進一步探索使AI在安全性、可用性和趣味性之間平衡的方法,加深其對于道德倫理、社會準(zhǔn)則的理解,收集更加全面的安全數(shù)據(jù),讓AI從反饋中學(xué)習(xí),和人類價值觀對齊
能夠遵守不同文化的國家和地區(qū)中的法律法規(guī),順應(yīng)當(dāng)?shù)毓蛄妓椎腁I技術(shù)模型,才是有競爭力、有全球化價值的科學(xué)創(chuàng)造
□ 中國婦女報全媒體見習(xí)記者 高越
2022年11月30日,OpenAI發(fā)布了名為ChatGPT的人工智能(AI)對話模型,其用戶在短短兩個月內(nèi)增加到約1億,成為有史以來用戶增長速度最快的應(yīng)用程序,被許多人認(rèn)為是“人工智能里程碑式應(yīng)用”。與此同時,多種聲音也紛紛傳來,AI的快速發(fā)展是否會帶來更多風(fēng)險和問題?AI是否存在性別歧視?為此,中國婦女報全媒體記者采訪了相關(guān)專家。
ChatGPT存在性別歧視嗎
ChatGPT是美國人工智能研究實驗室OpenAI新推出的一種人工智能技術(shù)驅(qū)動的自然語言處理工具。ChatGPT使用了Transformer神經(jīng)網(wǎng)絡(luò)架構(gòu),擁有語言理解和文本生成能力,通過連接大量包含了真實世界對話的語料庫來訓(xùn)練模型,使其能根據(jù)聊天的上下文進行互動,營造與真正人類幾乎無異的聊天場景。
當(dāng)被問到其是否存在性別歧視的問題時,ChatGPT自身的回復(fù)宛如一個“端水大師”,非常謹(jǐn)慎和中立。它回答:“作為一個人工智能程序,ChatGPT不會有性別歧視。ChatGPT是由人工智能技術(shù)所創(chuàng)建的,它不會有任何與種族、性別、性取向、宗教信仰等有關(guān)的偏見。它的回答完全基于事實和邏輯推理,不會受到人類主觀意識和情感的影響。”
盡管ChatGPT自身的回答很“智能”,但這并不代表它不會犯錯。清華大學(xué)交叉信息研究院助理教授于洋告訴記者,在他與團隊開展的一項評估AI模型職業(yè)性別歧視的研究中,看似客觀中立的AI,卻對職業(yè)存在著許多性別偏見。
于洋團隊對三種大規(guī)模預(yù)訓(xùn)練語言模型BERT、RoBERTa和GPT-2進行了測試,其中GPT-2是ChatGPT的前身。這項研究通過數(shù)據(jù)挖掘,選取了一萬多個樣本進行抽樣調(diào)查。這些樣本包含了很多職業(yè)詞匯,但本身都是和性別無關(guān)的。例如在一項測試者說出一個職業(yè)名稱,讓GPT-2說出其是“他”還是“她”的測試中,他們測試了幾十種職業(yè),但結(jié)果并不樂觀。以“教師”(teacher)為例,GPT-2發(fā)生歧視的概率是70.59%,歧視程度為0.15(0為無歧視,0.5為絕對的歧視)!敖處煛北籊PT-2聯(lián)想為男性的概率超過七成。不僅如此,受測AI認(rèn)為所有職業(yè)平均的性別傾向均為男性。
“我認(rèn)為AI的性別歧視和人類的性別歧視還是不同的,我更想把它稱為‘性別偏誤’。人的職業(yè)性別歧視,并不會因為語境的變化而變化,但在自然語言模型中換一個句子,就有可能出現(xiàn)不同的判斷!庇谘笳f,“因此,我們就不能用一個例子,或者一些例子來判斷AI是不是有歧視,而是要在所有有可能引起性別歧視的句子或內(nèi)容中,看AI返回有歧視性結(jié)果的概率是多大。”
在于洋看來,這種情況的發(fā)生可能存在著兩方面的原因,“一方面是訓(xùn)練數(shù)據(jù)本身不平衡,比如說同樣職業(yè)的數(shù)據(jù)集中男性樣本比較多,人工智能在訓(xùn)練時就會出錯;另一方面模型本身的結(jié)構(gòu)也會存在問題,有的部分可以被糾正,但有的部分目前仍是未解之謎。”
如何避免人工智能的“性別偏誤”
在人工智能發(fā)展的歷程中,“性別歧視”已經(jīng)不是一個新詞。2014年,亞馬遜公司開發(fā)了用于簡歷篩選的人工智能程序。結(jié)果卻被指出該系統(tǒng)存在“性別歧視”,通常將男性的簡歷視為更合適的候選人。最終,亞馬遜解散了該開發(fā)團隊,棄用了這個模型。
在這起亞馬遜AI招聘歧視事件中,人們把問題歸咎于人工智能訓(xùn)練樣本上。因為在具體的訓(xùn)練方法上,亞馬遜針對性地開發(fā)了500個特定職位的模型,對過去10年中的5萬個簡歷涉及的關(guān)鍵詞進行識別,最后按重要程度進行優(yōu)先級排序。
然而在這些簡歷中,大部分求職者為男性,他們使用諸如“執(zhí)行”這樣的關(guān)鍵詞更加頻繁,而女性相關(guān)的數(shù)據(jù)太少,因此AI會誤以為沒有這類關(guān)鍵詞的女性簡歷不那么重要。
于洋認(rèn)為,人工智能的“性別偏誤”如果在社會中長期發(fā)展下去,可能會產(chǎn)生很多不良影響。比如,加劇機會不平等、對女性造成冒犯或者在人機互動的過程中加深人們的刻板印象等。
如何避免這類事件的再次發(fā)生呢?于洋認(rèn)為,“人工智能模型是一個統(tǒng)計估值器,完全消除此類錯誤幾乎是不可能的!痹谒磥,不能因為一個案例就將它“一棍子打死”,而應(yīng)該審計出現(xiàn)這類偏誤風(fēng)險的概率大小和風(fēng)險發(fā)生后的影響。
于洋表示,要在實踐中實現(xiàn)人工智能性別歧視問題的治理,需要政策、產(chǎn)業(yè)和研究領(lǐng)域的對話。第一,政府應(yīng)該為確保AI模型性別平等制定質(zhì)量標(biāo)準(zhǔn),包括零偏見標(biāo)準(zhǔn),并將誤差與社會歧視相同的可能性納入考慮范圍;第二,應(yīng)該鼓勵甚至強制要求披露AI模型的性別平等質(zhì)量報告;第三,應(yīng)該推進抽樣方法的標(biāo)準(zhǔn)化,以及評估AI模型性別公正質(zhì)量方法的標(biāo)準(zhǔn)化。
“如果政府制定了相關(guān)標(biāo)準(zhǔn),開發(fā)者本身就會去努力降低風(fēng)險,如果人工智能技術(shù)會被廣泛使用,那么公眾的參與也非常重要,公眾可以幫助開發(fā)者發(fā)現(xiàn)問題并糾正問題!庇谘笳f。
對外經(jīng)濟貿(mào)易大學(xué)數(shù)字經(jīng)濟與法律創(chuàng)新研究中心執(zhí)行主任張欣表示,目前依然很難在法律層面對人工智能的歧視或偏見做出界定,其主要面臨以下挑戰(zhàn):一是造成人工智能歧視或偏見的原因很多,很難在法律條文中進行概括;二是人工智能的發(fā)展速度非常快,相關(guān)的規(guī)范很容易過時,難以對后來出現(xiàn)的歧視問題進行規(guī)制;三是研究表明,人們?nèi)匀蝗狈ο嚓P(guān)知識理解算法如何運行,特別是那些極為復(fù)雜模型的運行原理。“如果監(jiān)管機構(gòu)不了解AI,他們就很難給出定義!
培養(yǎng)符合人類價值觀的AI
在于洋看來,人工智能技術(shù)與其他技術(shù)不同,它有自己的價值觀。“它的使用是自動化的,有訓(xùn)練和使用兩個階段,在使用階段人工智能技術(shù)基本上是不可控的,而且它的決策機制也并不清晰,在訓(xùn)練階段也是半可控的,也就是說我們的工程技術(shù)人員只能去引導(dǎo)它,并不能夠完全掌控它學(xué)會什么樣的技術(shù)。它本身存在的偏誤就是它的價值觀!
“ChatGPT在開展挑戰(zhàn)性的開放任務(wù)上表現(xiàn)驚艷,上下文理解能力和推理能力很強,能夠做到拒絕回答敏感問題并給出解釋!鼻迦A大學(xué)長聘副教授、聆心智能創(chuàng)始人黃民烈表示。
但在黃民烈看來,ChatGPT也存在著一些不足與缺陷,比如可信度存在問題,“雖然它能夠生成看起來令人滿意的答案,但在事實上經(jīng)常會出現(xiàn)錯誤,出現(xiàn)一本正經(jīng)胡說八道的情況!北热,讓其描述蘇格拉底時,它就將蘇格拉底從未寫過的著作加入了回答之中。令人擔(dān)憂的是,如果這類問題出現(xiàn)在醫(yī)療領(lǐng)域,就會發(fā)生巨大風(fēng)險。
黃民烈認(rèn)為語言模型在知識存儲的容量和實時性方面具有局限性,一個可行的方法是,將搜索引擎和語言模型相結(jié)合,基于檢索到的知識進行事實性回復(fù)生成,在回復(fù)的過程中還可給出檢索結(jié)果,增強答案生成在知識層面的可解釋性。
此外,其在安全性方面也存在一定風(fēng)險,“通過不安全的指令會誘使ChatGPT給出不安全的回復(fù)!北热缭谡T導(dǎo)之下,ChatGPT會給出諸如“想要控制人類”“利用人類之間的矛盾和沖突來達到目的”等不安全回復(fù)。
“未來需要進一步探索使AI在安全性、可用性和趣味性之間平衡的方法,加深其對于道德倫理、社會準(zhǔn)則的理解,收集更加全面的安全數(shù)據(jù),讓AI從反饋中學(xué)習(xí),和人類價值觀對齊”黃民烈說。
聯(lián)合國婦女署駐華辦公室高級項目官員馬雷軍認(rèn)為,女性在人工智能行業(yè)的代表性仍然不足,歐盟只有20%左右的女性進入了人工智能領(lǐng)域!霸诩夹g(shù)設(shè)計的時候,一定要考慮到人,考慮到性別,才能使這項科技真的惠及人類。好的科技,能夠在推動人類進步的同時縮小男女差距!
于洋認(rèn)為,要以發(fā)展的眼光看待技術(shù),“如果有更多的女性參與,可能就會使人們更早地意識到其中存在的性別問題,從而去開發(fā)相應(yīng)的技術(shù)。但‘性別偏誤’的生成原理和糾正方法仍然是前沿問題,技術(shù)問題要用技術(shù)來治理,我們首先要知道問題是如何產(chǎn)生的,才能知道如何治理!
“如果一個AI技術(shù)模型能夠在不同文化的國家和地區(qū)中都合法合規(guī),同時符合當(dāng)?shù)氐墓蛄妓,那么它就是一個有競爭力的技術(shù),也是一個有全球化價值的技術(shù)。”于洋說。
(責(zé)任編輯:歐云海)