為解決跨文化適應(yīng)問題提供新思路
科技日報北京12月18日電 (記者張夢然)美國華盛頓大學(xué)一項研究首次表明,人工智能(AI)系統(tǒng)可以通過觀察人類在特定文化中的行為,學(xué)習(xí)并內(nèi)化相應(yīng)的文化價值觀。這為解決AI跨文化適應(yīng)問題提供了新思路。相關(guān)論文已發(fā)表于《PLOS One》。
當(dāng)前,AI通;诖笠(guī)模互聯(lián)網(wǎng)數(shù)據(jù)進(jìn)行訓(xùn)練,而這些數(shù)據(jù)中蘊(yùn)含的價值觀往往具有文化偏向性,導(dǎo)致系統(tǒng)在不同文化背景的用戶面前表現(xiàn)不一致。為此,研究團(tuán)隊嘗試讓AI以“觀察學(xué)習(xí)”的方式,從具體文化群體的行為中吸取價值觀,而非被預(yù)先植入某一套通用準(zhǔn)則。
研究團(tuán)隊試圖探索的是,AI能否像兒童那樣,通過觀察周圍人的行為,自然而然地習(xí)得所在文化的價值觀。團(tuán)隊招募了190名成年人參與實驗,讓他們分別與AI代理進(jìn)行互動。實驗中,參與者玩一款改編自游戲《Overcooked》的協(xié)作任務(wù)。在游戲中,參與者可選擇是否將自己獲得的資源無償贈送給明顯處于劣勢的機(jī)器人玩家,盡管這會影響自己的任務(wù)得分。結(jié)果顯示,有一組參與者整體表現(xiàn)出更多的利他行為。
AI代理則通過“逆向強(qiáng)化學(xué)習(xí)”方法,從所觀察群體的行為中推斷其行為目標(biāo)與內(nèi)在價值觀。在后續(xù)測試中,這些代理成功地將習(xí)得的“利他傾向”推廣到捐贈資金等新場景中:基于這一人類組數(shù)據(jù)訓(xùn)練的AI,在捐贈任務(wù)中表現(xiàn)出更高的慷慨度。
“這類似于兒童的學(xué)習(xí)方式——他們并非被反復(fù)訓(xùn)練做某件事,而是通過觀察父母與他人的互動,潛移默化地學(xué)會分享、關(guān)懷等社會行為。”論文合著者、華盛頓大學(xué)心理學(xué)教授安德魯·梅爾佐夫表示,“價值觀更多是‘被捕捉’而非‘被教授’的。”
團(tuán)隊認(rèn)為,如何創(chuàng)建具有文化適應(yīng)性、能理解他人視角的AI,是當(dāng)前社會面臨的重要課題。隨著輸入數(shù)據(jù)的文化多樣性和體量增加,這類方法有望幫助開發(fā)出更貼合特定文化背景的AI系統(tǒng)。不過,該研究目前仍處于概念驗證階段,未來還需在更多文化情境、價值沖突場景及復(fù)雜現(xiàn)實問題中進(jìn)一步驗證其可行性。
【總編輯圈點】
若AI能像人類一樣通過行為模仿,內(nèi)化自己的準(zhǔn)則,那么所謂人機(jī)協(xié)作,可能也要上升到更高層次的討論了。本文研究的最重要意義就在于,人們發(fā)現(xiàn)AI的學(xué)習(xí)機(jī)制可以從“數(shù)據(jù)灌輸”轉(zhuǎn)向“社會觀察”。這為構(gòu)建真正具有文化感知能力的通用智能體提供了基石。然而,這種文化適應(yīng)能力也是雙刃劍:通過模擬人類價值觀的形成過程,或能構(gòu)建出具有道德感的AI;但當(dāng)不同文化群體的行為規(guī)范存在沖突時,AI也將面臨更艱難的抉擇。