企業高層需要更加重視生成式 AI 快速發展的風險。他們可以從幾個建立信任的關鍵行動開始。
根據 PwC 2023 年信任調查,當問及 500 位高管他們如何優先處理可能侵蝕公司信任的重大風險時,AI 相關的威脅明顯低於其他網絡安全相關風險,例如資料洩露或勒索軟件攻擊。這表明許多商業領袖尚未意識到生成式 AI 所帶來挑戰的緊迫性。僅舉幾例:冒犯性或誤導性內容;旨在散佈虛假信息或誘使利益相關者洩露敏感信息的深度偽造技術;權威呈現但完全不準確的信息;匿名利益相關者身份的曝光;非法復製受版權保護的內容;不小心洩露知識產權等——這些風險層出不窮。
公司如何在利用生成式 AI 的革命性力量(如自動化客服和高流量任務、提供專有或公共數據的摘要、甚至編寫軟件代碼等)的同時,不損害利益相關者的信任?他們可以從以下行動開始:
- 設置基於風險的優先事項
一些生成式 AI 風險對您的利益相關者來說比其他風險更重要。調整或建立升級框架,以便治理、合規、風險、內部審計和 AI 團隊將更多精力放在最嚴重的風險上。 - 更新網路安全、數據和隱私保護
更新網路安全、數據治理和隱私協議,以幫助減輕生成式 AI 帶來的風險,如惡意行為者推測私人數據、揭露身份或進行網絡攻擊。 - 處理透明度風險
對於某些生成式 AI 系統,使用的「基礎模型」或神經網絡並未向用戶公開,導致無法解釋為何系統生成了某些結果。識別這些系統,並考慮哪些實踐可以支持其公平性、準確性和合規性。 - 為利益相關者提供負責任的使用和監督能力
教導員工生成式 AI 的基本運作方式——以及何時應使用它,何時不應使用。他們還需要學會何時以及如何驗證或修改輸出。為合規和法律團隊提供識別知識產權侵犯和其他相關風險的技能和軟件,加強 AI 治理指導方針以及其他已經存在的治理結構(如隱私和網絡安全)。 - 監控第三方
知道您的供應商提供哪些內容或服務使用了生成式 AI,他們如何管理相關風險,以及您的潛在風險暴露是多少。 - 關注監管環境
全球的政策制定者正不斷發布有關 AI 開發和使用的更多指導意見。雖然這些指導仍然是一個拼湊的政策框架,但新的規則正在不斷出現。 - 增加自動化監督
隨著生成式 AI 內容的日益普及,考慮使用新興的軟件工具來識別 AI 生成的內容,驗證其準確性,評估其是否存在偏見或侵犯隱私,並根據需要添加引用或警告。