<button id="jv6ex"></button>
<span id="jv6ex"></span>
<rt id="jv6ex"></rt>
<rt id="jv6ex"></rt>
  1. <rt id="jv6ex"></rt>
  2. 聚慕 - 專業醫療器械服務商
    設為首頁 收藏本頁 人事招聘 關于聚慕
    400-901-5099
    全部商品分類
    人工智能的三大風險以及如何避免
    發布時間:2022-11-24 10:29:28

    人工智能系統和人工智能項目如今變得越來越普遍,因為企業可以利用這種新興技術的力量來自動化決策和提高效率。

    如果企業正在實施一個大規模的人工智能項目,那么應該如何準備?以下是與人工智能相關的三個最重要的風險,以及如何預防和減輕它們。

    1.從隱私到安全

    人們都很關注自己的隱私,而面部識別人工智能在某些方面正在迅速發展,引發了關于隱私和監控的倫理擔憂。例如,這項技術可以讓企業在未經用戶同意的情況下跟蹤用戶的行為,甚至是情緒。美國政府最近提出了一項“人工智能權利法案”,以防止人工智能技術造成與核心價值觀相悖的真正傷害,包括基本的隱私權。

    IT領導者需要讓用戶知道正在收集什么數據,并獲得用戶的同意。除此之外,關于數據集的適當培訓和實施對于防止數據泄露和潛在的安全漏洞至關重要。

    測試人工智能系統以確保它實現目標,而不會產生意想不到的影響,例如允許黑客使用虛假的生物識別數據訪問敏感信息。實施人工智能系統的監督,可以使企業在必要時停止或撤銷它的行動。

    2.從不透明到透明

    許多使用機器學習的人工智能系統是不透明的,這意味著不清楚它們是如何做出決定的。例如,對抵押貸款數據廣泛的研究表明,用于批準或拒絕貸款的預測性人工智能工具對少數族裔申請者的準確性較低。技術的不透明性侵犯了貸款被拒絕的申請者的“解釋權”。

    當企業的人工智能/機器學習工具對其用戶做出了重要的決定時,需要確保他們得到通知,并能得到關于為什么做出這個決定的完整解釋。

    企業的人工智能團隊還應該能夠追蹤導致每個決策的關鍵因素,并在這一過程中診斷出任何錯誤。內部面向員工的文檔和外部面向客戶的文檔應該解釋人工智能系統是如何以及為什么這樣運作的。

    3.從偏見到公平

    最近的一項研究表明,根據具有偏見的數據訓練的人工智能系統強化了歧視模式,從醫學研究招募不足到科學家參與度降低,甚至少數族裔患者不太愿意參與研究。

    人們需要問問自己:如果意想不到的結果發生了,它會影響誰或哪個群體?它是否平等地影響所有用戶,還是只影響特定群體?

    仔細查看歷史數據,評估是否引入了任何潛在的偏見或減輕了偏見。一個經常被忽視的因素是企業的開發團隊的多樣性,而更加多樣化的團隊通常會引入更公平的過程和結果。

    為了避免意外的傷害,企業需要確保來自人工智能/機器學習開發、產品、審計和治理團隊的所有涉眾完全理解指導企業的人工智能項目的高級原則、價值和控制計劃。獲得獨立的評估,以確認所有項目都符合這些原則和價值觀。


    注:文章來源于網絡,如有侵權,請聯系刪除

    為您找貨 · 告訴我們您想要找什么商品?我們將盡快給您答復。
    * 商品名稱:
    * 您想了解:
    • 商品資料
    • 貨期
    • 價格
    • 安調
    • 其他
    * 手機號碼:
    * 姓名:
    亚洲成Aⅴ片人久久久|狠狠色丁香婷婷综合|中文字幕在线一区精品|国产日韩久久久久久一区二区三区
    <button id="jv6ex"></button>
    <span id="jv6ex"></span>
    <rt id="jv6ex"></rt>
    <rt id="jv6ex"></rt>
    1. <rt id="jv6ex"></rt>