生成式AI洩密風險 經部建議4面向因應

記者陳柏翰∕台北報導

近年全球掀起人工智慧(AI)浪潮,卻也衍生科技、金融產業營業秘密外洩風險。經濟部智慧局建議,企業可以從建立內部規範、區別機密等級、教育訓練、稽核機制等四面向著手;另,也須與供應鏈廠商達成共識,落實營業秘密風險管控。

生成式AI浪潮替生活和工作增加許多便利性,但如果企業員工使用ChatGPT詢問的資訊涉及機敏資料,可能會造成公司營業秘密成為AI訓練資料庫的內容,使企業機密面臨外洩風險。

經濟部智慧局表示,企業面對生成式AI帶來的機密外洩風險,可以下列四面向因應。首先須建立使用規範,讓員工清楚知道哪些資訊不能輸入,像是生技業的實驗數據、科技業的機器擺放位置等,避免成為AI技術開發者訓練資料的一部分。

然而,營業秘密的界定在實務層面上有一定困難度,常見的狀況是員工在雛型構想階段時,運用生成式AI查詢參考資料,過程中可能也會洩漏營業秘密;因此,可依照產業類型將營業秘密分類、分級,例如研發部門人員可能要完全禁止使用,防止實驗室數據外流,業務部門人員可開放部分使用。

企業對員工的在職訓練也非常重要,須培養員工對生成式AI有使用風險的認知。公司內部應建立稽核機制,由上級主管、或者員工之間去審查專案內容使用生成式AI的比例、了解哪些內容是由生成式AI產出,以達到預警和風險控管效果。

企業與供應鏈廠商之間會互相分享營業資訊,像是原料供應商、採購數量等,這也可能涉及營業秘密外洩,因此供應鏈之間需達成共識,在生成式AI使用越來越普及情況下,做好企業內外風險管理。