亚洲AV无码国产一区二区三区,久久久国产精品免费a片分环卫,少妇xxxxx性开放,国产精品videossex久久发布

當前位置:首頁 > 最新資訊 > 行業資訊

NIST:人工智能偏見遠遠超出數據本身

?到目前為止,應該沒有人會質疑大多數人工智能都是建立在某種程度上有問題的偏見之上的,而且目前也在使用這種偏見。這是一個被觀察和證實了數百次的挑戰。組織機構面臨的挑戰是根除人工智能偏見,而不是僅僅滿足于推動更好的、無偏見的數據。

在對其出版物《邁向人工智能中識別和管理偏見的標準》(NIST 1270特別出版物)的一次重大修訂中,在去年的公眾評論期之后,美國國家標準與技術研究所(NIST)提出了一個強有力的論點,即超越數據甚至ML過程來發現和摧毀AI偏見。

作者們沒有指責收集不當或標記不當的數據,而是表示,人工智能偏見的下一個前沿是“人類和系統的制度和社會因素”,并推動從社會技術角度尋找更好的答案。

“環境決定一切,”NIST人工智能偏見的首席研究員、該報告的作者之一瑞瓦·施瓦茨(Reva Schwartz)說。“人工智能系統不是孤立運行的。他們幫助人們做出直接影響他人生活的決定。如果我們要開發值得信賴的人工智能系統,我們需要考慮所有可能削弱公眾對人工智能的信任的因素。這些因素中有許多已經超越了技術本身,還影響了技術,我們從各種各樣的人和組織收到的評論都強調了這一點。”

造成人工智能偏見的人為和系統偏見是什么?

根據NIST的報告,人類基礎分為兩大類:個體和群體,每個類別下都有許多特定的偏見。

個體的人類偏見包括自動化自滿,即人們過度依賴自動化技能;內隱偏見,一種影響某人做決定的無意識的信念、態度、聯想或刻板印象;還有確認偏見,也就是人們更喜歡與他們現有信念一致或一致的信息。

群體人類基礎包括群體思維(groupthink),即人們出于順應群體或避免分歧的愿望而做出非最優決策的現象;資金偏見,當報告有偏見的結果以滿足一個資助機構或財政支持者,這反過來可能會受到額外的個人/群體偏見的影響。

對于系統性偏見,NIST報告將其定義為歷史的、社會的和制度的。從本質上講,長期存在的偏見隨著時間的推移已經被編入社會和機構,并在很大程度上被視為“事實”或“事情就是這樣的”。

這些偏見之所以重要,是因為人工智能部署對當今組織的工作方式有多么大的影響。由于種族偏見的數據,人們被剝奪了抵押貸款,剝奪了他們首次擁有住房的機會。求職者被拒絕面試,因為人工智能被訓練成歷史上的雇傭決定,這更傾向于男性而不是女性。有前途的年輕學生會因為他們的姓氏與過去成功人士的名字不匹配而被大學拒絕面試或錄取。

換句話說:有偏見的人工智能創造了與效率開口一樣多的鎖門 。 如果組織不積極努力消除部署中的偏見,他們很快就會發現自己在思考和操作方面嚴重缺乏信任。

NIST 推薦的社會技術觀點是什么?

其核心是認識到任何人工智能應用的結果都不只是數學和計算輸入。它們是由開發人員或數據科學家制作的,他們的職位和機構各不相同,他們都有一定程度的負擔。

NIST的報告中寫道:“人工智能的社會技術方法考慮了從數據集建模的價值和行為,與它們交互的人類,以及復雜的組織因素,這些因素涉及到它們的委托、設計、開發和最終部署。”

NIST認為,通過社會技術視角,組織可以通過“準確性、可解釋性和可理解性、隱私性、可靠性、魯棒性、安全性和安全彈性”來培養信任。

他們的建議之一是讓組織實施或改進他們的測試、評估、確認和驗證(TEVV)過程。在給定的數據集或訓練過的模型中,應該有方法從數學上驗證偏差。他們還建議在AI開發工作中創造更多來自不同領域和職位的參與,并擁有來自不同部門或組織外部的多個利益相關者。 “?human-in-the-loop”模型中,個人或集體不斷糾正基本的 ML 輸出,也是消除偏見的有效工具。

除了這些和修訂后的報告之外,還有NIST的人工智能風險管理框架(AI RMF),這是一套由共識驅動的建議集,用于管理AI系統涉及的風險。一旦完成,它將涵蓋人工智能技術和產品的透明度、設計和開發、治理和測試。人工智能RMF的初始評論期已經過去,但我們仍然有很多機會了解人工智能的風險和緩解措施。

猜你喜歡