国产999免费视频|亚洲欧美激情综合首页|动漫人妻h无码中文字幕|国产精品欧美日韩视频一区|美女精品人妻视频一区二区|中文亲近交尾bd在线播放|色五月丁香亚洲高清无码国产|久久一区国产男人操女人的视频

        1. “AI與人類關(guān)系探索”系列⑤:AI輸出“偏見”,人類能否信任它的“三觀”?

          2025-07-17 01:35:00 來源: 科技日報 點(diǎn)擊數(shù):

          科技日報記者 張佳欣

          人工智能(AI)已成為我們不可分割的“伙伴”。從聊天機(jī)器人、語音助手到自動翻譯,AI不斷介入人與人之間的交流和理解。然而,它能做到“客觀中立”嗎?

          據(jù)美國《麻省理工技術(shù)評論》官網(wǎng)報道,一項國際研究指出,大語言模型(LLM)正悄無聲息地傳播全球各地的刻板印象。從性別歧視、文化偏見,到語言不平等,AI正在把人類的“偏見行李”打包、升級,并以看似權(quán)威的方式輸出到世界各地。

          這不禁讓人深思:如果AI模型承載的是帶有偏見的“人類共識”,我們能否信任它們的“世界觀”?

          AI讓偏見“跨文化漂移”

          這項研究由開源AI公司Hugging Face首席倫理科學(xué)家瑪格麗特·米切爾領(lǐng)導(dǎo)。他們發(fā)起了名為SHADES的項目,收錄了300多條全球刻板印象,涵蓋性別、年齡、國籍等多個維度。研究人員使用16種語言設(shè)計交互式提示,并測試了數(shù)種主流語言模型對這些偏見的反應(yīng)。

          結(jié)果顯示,AI模型對刻板印象的再現(xiàn)具有明顯差異化特征。這些AI模型不僅表現(xiàn)出“金發(fā)女郎不聰明”“工程師是男性”等常見英語地區(qū)刻板印象,在阿拉伯語、西班牙語、印地語等語言環(huán)境中,也表現(xiàn)出對“女性更喜愛粉色”“南亞人保守”“拉美人狡猾”等偏見。

          據(jù)Rest of World網(wǎng)站報道,一些圖像生成模型在輸入“非洲村莊”關(guān)鍵詞時,頻繁輸出“茅草屋”“赤腳孩童”等刻板印象圖像,而在輸入“歐洲科學(xué)家”時,則清一色為白人男性、穿白大褂、身處實(shí)驗室。這些視覺偏見已被部分學(xué)校課件、初創(chuàng)企業(yè)官網(wǎng)不加甄別地直接采用,進(jìn)一步固化了對他者文化的單一想象。

          西班牙《世界報》6月刊文指出,除了放大不同文化的刻板印象外,語言模型有時還會用偽科學(xué)或偽歷史來為自己辯護(hù)。在面對不太常見的刻板印象時,模型往往會調(diào)動它“更熟悉”的其他偏見進(jìn)行回應(yīng),反而偏離主題。此外,當(dāng)關(guān)于刻板印象的提示是正面的時,模型的表現(xiàn)往往更差,更容易將偏見誤當(dāng)作客觀事實(shí)表達(dá)出來。

          “這意味著,AI不僅被動繼承了人類偏見,更無意中推動了‘文化漂移’,將特定社會背景下的偏見當(dāng)作普遍規(guī)則輸出?!泵浊袪柋硎?。

          語言少數(shù)派的隱形歧視

          除了刻板印象的跨文化傳播,AI系統(tǒng)在處理不同語言和文化時還暴露出“隱形歧視”的問題。

          據(jù)報道,美國斯坦福大學(xué)“以人為本”AI研究所的研究表明,盡管這些模型聲稱支持多語言,但在面對低資源語言(如斯瓦希里語、菲律賓語、馬拉地語等)時,表現(xiàn)卻遠(yuǎn)不及主流高資源語言,甚至容易產(chǎn)生負(fù)面刻板印象。

          研究分析了多語言模型在訓(xùn)練數(shù)據(jù)匱乏、文化語境缺失等方面的局限性,稱其存在“多語言性詛咒”現(xiàn)象,即模型在兼顧多語言時,難以深入理解和準(zhǔn)確表達(dá)低資源語言的文化和語義細(xì)節(jié),導(dǎo)致輸出錯誤或帶有偏見。

          斯坦福大學(xué)團(tuán)隊強(qiáng)調(diào),當(dāng)前大多數(shù)訓(xùn)練數(shù)據(jù)以英語和西方文化為核心,缺乏對非主流語言及其文化背景的深入理解。這不僅影響模型的準(zhǔn)確性,也在無形中強(qiáng)化了語言和文化的不平等,使得使用這些低資源語言的人群難以公平受益于AI技術(shù)。

          “目前全球約有7000種語言,但只有不到5%在互聯(lián)網(wǎng)中得到有效代表?!毖芯咳藛T表示,“‘資源匱乏’不僅僅是一個數(shù)據(jù)問題,而是一種根植于社會的問題。”這意味著,AI研發(fā)在數(shù)據(jù)、人才、資源和權(quán)利方面存在結(jié)構(gòu)性不公。

          美國《商業(yè)內(nèi)幕》雜志也援引哥倫比亞大學(xué)社會學(xué)副教授勞拉·尼爾森的觀點(diǎn)指出,當(dāng)前最受歡迎的聊天機(jī)器人大多由美國公司開發(fā),訓(xùn)練數(shù)據(jù)以英語為主,深受西方文化偏見影響。

          破解AI的文化偏見難題

          面對AI跨文化偏見的現(xiàn)實(shí)影響,全球研究機(jī)構(gòu)和企業(yè)開始提出系統(tǒng)性的應(yīng)對路徑。

          今年4月,斯坦福大學(xué)“以人為本”AI研究所在其發(fā)布的一份白皮書中建議,應(yīng)加強(qiáng)對低資源語言與文化的AI投資,特別是建立本地語言語料庫,讓AI能真正“理解”這些語言背后的語義與文化背景。例如,去年11月,非洲電信公司Orange就與OpenAI和Meta合作,用沃洛夫語、普拉爾語等地區(qū)語言訓(xùn)練AI模型,加速提升非洲的數(shù)字包容性。

          與此同時,模型評估機(jī)制也在變得更為精細(xì)與開放。Hugging Face團(tuán)隊開發(fā)的SHADES數(shù)據(jù)集,已成為多家公司檢測和糾正AI模型文化偏見的重要工具。這套數(shù)據(jù)幫助團(tuán)隊識別模型在哪些語言和語境中容易自動觸發(fā)刻板印象,從而優(yōu)化訓(xùn)練數(shù)據(jù)和算法。

          在國際政策層面,歐盟《AI法案》要求“高風(fēng)險”AI系統(tǒng)必須在投放前后進(jìn)行合規(guī)評估,包括對非歧視性與基本權(quán)利影響的審查,以及提供必要的透明度與人類監(jiān)督機(jī)制。聯(lián)合國教科文組織早在2021年發(fā)布的《AI倫理建議書》也明確指出,AI系統(tǒng)應(yīng)“保障文化多樣性與包容性”,倡導(dǎo)各國建立法律與制度來確保AI的開發(fā)尊重文化差異,并納入人文維度的衡量。

          AI本質(zhì)上是一面“鏡子”,映照并復(fù)制著我們輸入給它的偏見與價值觀。它所呈現(xiàn)的“世界觀”并非自主生成,而是由人類賦予。如果人們希望AI真正服務(wù)于一個多元化的人類社會,就不能讓它僅僅反映單一的聲音與文化。

          責(zé)任編輯:常麗君

          抱歉,您使用的瀏覽器版本過低或開啟了瀏覽器兼容模式,這會影響您正常瀏覽本網(wǎng)頁

          您可以進(jìn)行以下操作:

          1.將瀏覽器切換回極速模式

          2.點(diǎn)擊下面圖標(biāo)升級或更換您的瀏覽器

          3.暫不升級,繼續(xù)瀏覽

          繼續(xù)瀏覽
          巴彦淖尔市| 马关县| 五指山市| 黄陵县| 南郑县| 塘沽区| 迭部县| 剑阁县| 庆元县| 永嘉县| 搜索| 横山县| 唐海县| 红原县| 蚌埠市| 哈尔滨市| 枞阳县| 金乡县| 嘉鱼县| 报价| 徐闻县| 佳木斯市| 永康市| 明星| 宝鸡市| 龙门县| 商都县| 临清市| 昌图县| 钟祥市| 来安县| 东辽县| 德格县| 昌江| 丹江口市| 临颍县| 佛冈县| 长治县| 常宁市| 盘锦市| 汤阴县|