【cnmo新聞】隨著人工智能的逐漸升級,它開始能夠處理復(fù)雜任務(wù)了,人們對人工智能的信任度直線飆升
【cnmo新聞】隨著人工智能的逐漸升級,它開始能夠處理復(fù)雜任務(wù)了,人們對人工智能的信任度直線飆升。但有些研究表明,人工智能算法還是會存在對性別和種族的偏見,這也引發(fā)了人們對其在關(guān)鍵領(lǐng)域使用的擔(dān)憂。

波士頓大學(xué)
波士頓大學(xué)科學(xué)家的最近表明示正試圖建立一個用于檢測和減輕自動決策中的問題行為框架。波大的大部分工作都建立在記錄和減輕算法偏差的基礎(chǔ)之上,他們致力研究如何減少自動化系統(tǒng)對不同人群的影響,以及他們是否能平等地對待這些人群。對于他們的挑戰(zhàn)就是評估ai公平性的規(guī)則和指標(biāo)。在他們的研究中,波士頓大學(xué)的科學(xué)家使用了2016年著名的propublica對compas的調(diào)查數(shù)據(jù)進(jìn)行測試,結(jié)果顯示compas對非裔美國表現(xiàn)出偏見。
波士頓大學(xué)的研究人員開發(fā)了不同的方法來評估和處理風(fēng)險得分,這可以幫助減少誤報,并對不同的人群顯示出更多的公平性。他們技術(shù)的第一部分涉及為不同人群分別配置決策者和分類器,第二部分是改變自動決策者。在他們開發(fā)的技術(shù)中,他們允許處理算法引入不確定性。當(dāng)決策者系統(tǒng)將一個案例標(biāo)記為不確定時,它將經(jīng)歷一個不同的決策過程,這個決策過程可以是手動的,也可以由不同的自動化系統(tǒng)來處理。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“機(jī)電號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of JDZJ Hao, which is a social media platform and only provides information storage services.
