2Views 0Comments
AI基本法草案 明定可信任度
記者傅希堯∕台北報導
國科會十五日提出人工智慧(AI)基本法草案,草案共十八條條文中,明定政府應依風險分級,透過標記、揭露、問責等機制,提升應用可信任度,建立應用條件、救濟、補償等規範,包含外國AI產品落地規範;同時為保障勞工權益,政府應就AI利用所導致的失業,依其工作能力予以輔導就業。
國科會表示,AI基本法草案是邀集公協會、業界領袖、大專院校校長及各部會,召開多次溝通會議,凝聚各界共識,提出人工智慧基本法草案十八條條文,預告期間六十天、至九月十三日止,對草案有意見的團體及民眾可難期限內提出見解。
草案內容包括政府應建立人工智慧應用負責機制,不過,人工智慧技術開發與研究,在應用前的任何活動,不適用應用責任相關規範,以利技術創新發展。
草案說明,人工智慧應用時,應有明確方式降低可能風險,比如透過美國國家標準暨技術研究院AI風險管理框架,所訂定的安全標準與驗證機制、AI產出的標記或資訊揭露機制、透明可解釋的溯源或問責機制等;並要求各機關應建立應用負責機制,包含外國AI產品落地規範以降低人民法遵成本。
草案並明定,個人資料保護主管機關,應協助各目的事業主管機關,在人工智慧研發及應用過程,避免不必要的個人資料蒐集、處理或利用。