目錄
偏見評估
可解釋性 
人類增強
可重複性
關鍵要點
首頁 科技週邊 人工智慧 實踐負責任的人工智慧部署:四項原則

實踐負責任的人工智慧部署:四項原則

Apr 22, 2023 pm 08:28 PM
人工智慧 機器學習 資料隱私

人工智慧 (AI) 正在改變每個產業,超過三分之一的組織現在廣泛或有限地生產人工智慧。但與任何技術一樣,人工智慧也伴隨著巨大的經濟和社會風險,例如不道德偏見的擴散、責任的淡化和資料隱私的侵犯。

實踐負責任的人工智慧部署:四項原則

為了避免這些風險並負責任地部署人工智慧,監管政策和產業都有責任為圍繞該技術工作的從業者和使用者制定流程和標準。為此,道德 AI 和 ML 研究所的團隊匯總了負責任的 AI 原則,以授權從業者確保這些原則透過設計嵌入到圍繞生產 AI 和機器學習系統的基礎設施和流程中。

本文對八項原則中的四項進行了細分:偏見評估、可解釋性、人工增強和可重複性。

偏見評估

在某種意義上,人工智慧模型帶有固有的偏見,因為它們被設計用來區別對待相關的答案。這是因為智能的核心是識別我們在世界上看到的模式並對其採取行動的能力。在開發人工智慧模型時,我們試圖複製這種準確的能力,並鼓勵人工智慧在輸入的資料中發現模式,並產生相應的偏見。例如,一個研究蛋白質化學資料的模型會天生對那些結構可以以某種方式折疊的蛋白質產生相關的偏見,從而發現哪些蛋白質在醫學的相關用例中有用。

因此,我們在公開反對人工智慧偏見時應該小心謹慎。圍繞著人工智慧偏見的話題,我們通常指的是實際上不受歡迎或不合理的偏見,例如基於受保護特徵(如種族、性別或國籍)的偏見。

但為什麼人工智慧模式會產生不道德的偏見呢?答案取決於它輸入的資料。模型最終會反映出它們在部署之前使用的訓練資料中存在的偏見,所以如果訓練資料不具代表性或合併了預先存在的偏差,那么生成的模型最終將反映它們。就像他們在計算機科學裡說的「無用輸入無用輸出」。

團隊還必須創建一系列流程和程序,以正確識別圍繞 AI 訓練資料、模型本身的訓練和評估以及模型本身運作生命週期的有效性的任何不良偏差。如果您正在部署 AI,值得關注的一個很好的例子是道德 AI 和機器學習研究所的eXplainable AI 框架,接下來我們將對此進行更詳細的介紹。

可解釋性 

為了確保AI模型符合目的,相關領域專家的參與也很重要。這些人可以幫助團隊確保AI模型使用正確的效能指標,而不僅僅是統計數據和準確性驅動的效能指標。值得強調的是,領域專家不僅包括技術專家,還包括與用例相關的社會科學和人文學科專家。

不過,要使其發揮作用,確保模型的預測能夠由相關領域專家解釋也是很重要的。然而,先進的人工智慧模型通常使用最先進的深度學習技術,這可能不能簡單地解釋為什麼會做出特定的預測。

為了克服這一困難,組織傾向於利用多種技術和工具來實現機器學習的可解釋性,這些技術和工具可用於破解 AI 模型的預測。

在可解釋性之後是人工智慧模型的操作化。這是由相關利害關係人進行調查和監控的時候。此類 AI 模型的生命週期只有在正確部署到生產環境後才開始。一旦啟動並運行,模型才會因為外部壓力而遭受效能下降,無論是概念漂移還是模型運行環境的變化。

人類增強

在部署AI時,首先評估原始非自動化流程的當前需求至關重要,包括概述不良結果的風險。這將允許對過程有更深入的理解,並有助於確定哪些領域可能需要人工幹預來降低風險。

例如,向職業運動員推薦飲食計畫的人工智慧的高影響風險因素遠少於為銀行自動化後端貸款審批流程的人工智慧模型,這表明對前者而言,人工幹預的必要性要小於後者。當團隊確定AI工作流程的潛在風險點時,他們可以考慮實施「 人機迴圈 」的審查過程(HITL)。

HITL確保在流程自動化之後,仍然存在各種接觸點,其中需要人工幹預來檢查結果,從而更容易在必要時提供糾正或撤銷決策。這個過程可以包括技術專家和行業專家團隊(例如,銀行貸款的承銷商,或膳食計劃的營養師),以評估人工智慧模型所做的決定,並確保它們遵守最佳實踐。

可重複性

可重複性是指團隊在資料點上重複執行演算法並每次都得到相同結果的能力。這是負責任的 AI 的核心組成部分,因為它對於確保模型之前的預測在稍後階段重新運行時重新發布至關重要。

自然地,再現性很難實現,這主要是由於人工智慧系統內在的困難。這是因為AI 模型的輸出可能會因各種背景情況而異,例如:

  • 用於計算AI 幹擾的程式碼
  • 從使用的資料中學習到的權重
  • 運行程式碼的環境、基礎架構和配置
  • 提供給模型的輸入和輸入結構

這是一個複雜的問題,尤其是當一個AI模型被大規模部署並需要考慮無數其他工具和框架時。為此,團隊需要開發穩健的實踐來幫助控制上述情況,並實施工具來幫助提高可重複性。

關鍵要點

借助上述高級原則,業界可以確保遵循最佳實踐來負責任地使用人工智慧。採用此類原則對於確保人工智慧充分發揮其經濟潛力至關重要,並且不會削弱弱勢群體的權力、強化不道德的偏見或削弱問責制。相反,它可以成為我們可以用來推動成長、生產力、效率、創新和為所有人帶來更大利益的技術。

以上是實踐負責任的人工智慧部署:四項原則的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Java教學
1664
14
CakePHP 教程
1422
52
Laravel 教程
1316
25
PHP教程
1267
29
C# 教程
1239
24
位元組跳動剪映推出 SVIP 超級會員:連續包年 499 元,提供多種 AI 功能 位元組跳動剪映推出 SVIP 超級會員:連續包年 499 元,提供多種 AI 功能 Jun 28, 2024 am 03:51 AM

本站6月27日訊息,剪映是由位元組跳動旗下臉萌科技開發的一款影片剪輯軟體,依託於抖音平台且基本面向該平台用戶製作短影片內容,並相容於iOS、安卓、Windows 、MacOS等作業系統。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點、智慧包裝、數位人合成等。價格方面,剪映SVIP月費79元,年費599元(本站註:折合每月49.9元),連續包月則為59元每月,連續包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗,向已訂閱了原版VIP

使用Rag和Sem-Rag提供上下文增強AI編碼助手 使用Rag和Sem-Rag提供上下文增強AI編碼助手 Jun 10, 2024 am 11:08 AM

透過將檢索增強生成和語意記憶納入AI編碼助手,提升開發人員的生產力、效率和準確性。譯自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。雖然基本AI程式設計助理自然有幫助,但由於依賴對軟體語言和編寫軟體最常見模式的整體理解,因此常常無法提供最相關和正確的程式碼建議。這些編碼助手產生的代碼適合解決他們負責解決的問題,但通常不符合各個團隊的編碼標準、慣例和風格。這通常會導致需要修改或完善其建議,以便將程式碼接受到應

七個很酷的GenAI & LLM技術性面試問題 七個很酷的GenAI & LLM技術性面試問題 Jun 07, 2024 am 10:06 AM

想了解更多AIGC的內容,請造訪:51CTOAI.x社群https://www.51cto.com/aigc/譯者|晶顏審校|重樓不同於網路上隨處可見的傳統問題庫,這些問題需要跳脫常規思維。大語言模型(LLM)在數據科學、生成式人工智慧(GenAI)和人工智慧領域越來越重要。這些複雜的演算法提升了人類的技能,並在許多產業中推動了效率和創新性的提升,成為企業保持競爭力的關鍵。 LLM的應用範圍非常廣泛,它可以用於自然語言處理、文字生成、語音辨識和推薦系統等領域。透過學習大量的數據,LLM能夠產生文本

微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺 微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺 Jun 11, 2024 pm 03:57 PM

大型語言模型(LLM)是在龐大的文字資料庫上訓練的,在那裡它們獲得了大量的實際知識。這些知識嵌入到它們的參數中,然後可以在需要時使用。這些模型的知識在訓練結束時被「具體化」。在預訓練結束時,模型實際上停止學習。對模型進行對齊或進行指令調優,讓模型學習如何充分利用這些知識,以及如何更自然地回應使用者的問題。但是有時模型知識是不夠的,儘管模型可以透過RAG存取外部內容,但透過微調使用模型適應新的領域被認為是有益的。這種微調是使用人工標註者或其他llm創建的輸入進行的,模型會遇到額外的實際知識並將其整合

你所不知道的機器學習五大學派 你所不知道的機器學習五大學派 Jun 05, 2024 pm 08:51 PM

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 Jul 25, 2024 am 06:42 AM

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

SK 海力士 8 月 6 日將展示 AI 相關新品:12 層 HBM3E、321-high NAND 等 SK 海力士 8 月 6 日將展示 AI 相關新品:12 層 HBM3E、321-high NAND 等 Aug 01, 2024 pm 09:40 PM

本站8月1日消息,SK海力士今天(8月1日)發布博文,宣布將出席8月6日至8日,在美國加州聖克拉拉舉行的全球半導體記憶體峰會FMS2024,展示諸多新一代產品。未來記憶體和儲存高峰會(FutureMemoryandStorage)簡介前身是主要面向NAND供應商的快閃記憶體高峰會(FlashMemorySummit),在人工智慧技術日益受到關注的背景下,今年重新命名為未來記憶體和儲存高峰會(FutureMemoryandStorage),以邀請DRAM和儲存供應商等更多參與者。新產品SK海力士去年在

SOTA性能,廈大多模態蛋白質-配體親和力預測AI方法,首次結合分子表面訊息 SOTA性能,廈大多模態蛋白質-配體親和力預測AI方法,首次結合分子表面訊息 Jul 17, 2024 pm 06:37 PM

編輯|KX在藥物研發領域,準確有效地預測蛋白質與配體的結合親和力對於藥物篩選和優化至關重要。然而,目前的研究並沒有考慮到分子表面訊息在蛋白質-配體相互作用中的重要作用。基於此,來自廈門大學的研究人員提出了一種新穎的多模態特徵提取(MFE)框架,該框架首次結合了蛋白質表面、3D結構和序列的信息,並使用交叉注意機制進行不同模態之間的特徵對齊。實驗結果表明,該方法在預測蛋白質-配體結合親和力方面取得了最先進的性能。此外,消融研究證明了該框架內蛋白質表面資訊和多模態特徵對齊的有效性和必要性。相關研究以「S

See all articles