前往主要內容
工商時報LOGO

人工智慧風險治理 KPMG提三大心法

已將目前網頁的網址複製到您的剪貼簿!

近來網路掀起自然語言對話人工智慧應用工具大熱潮,KPMG安侯企業管理(股)公司董事總經理謝昀澤表示,目前網路上熱門的應用工具仍多屬於「弱AI」,並非無所不能,使用者應用時應該先了解其能力限制,避免「人工智慧產生人工誤會」。

KPMG安侯企業管理(股)公司執行副總經理邱述琛更提醒,未受控的人工智慧風險,除了可能造成駭客門檻大幅降低,AI成為網路犯罪的利器,過去曾被揭露的深假技術(DeepFake)也將會更進化,假影片、假新聞、及來自AI代筆的作業、報告與論文將會更氾濫,智慧財產權爭議也更複雜。

邱述琛建議,著眼於未來商機的企業,應注意人工智慧的風險治理重點與傳統產業及技術有非常大的差異,應該特別針對人工智慧的演算法與大數據風險,建立風險及法遵整合治理架構,針對企業人工智慧風險治理,可參考三大心法。

第一是維持技術與風險間的平衡:人工智慧應用在研發與準備期間,除了建立邊做邊學的環境與空間,研發創新期間,也應該要著手建構對應的風險管理框架。

第二是了解演算法的假設與限制:人工智慧快速運算包括結構化與非結構化的海量大數據資料,演算法基於假設前提並可能受到原始資料影響,必須由研究團隊謹慎判別與分析後,才能提出建議,必要時還應該提示限制因素。

第三則是考量人工介入必要與時機:短期內人工智慧仍難以取代最終決策的「責任」,因此人工智慧的應用場景應配合相關法規與應用規範,設計必要的人工介入條件與時機,而非全數仰賴人工智慧的運算結果進行決策。

您可能感興趣的話題

返回頁首
LOADING

本網頁已閒置超過3分鐘。請點撃框外背景,或右側關閉按鈕(X),即可回到網頁。