記者李錫銘/台北報導
針對AI議題,施耐德電機建議應檢視企業是否做到最高標準的道德與信任,企業應用AI時除了符合法律規範,也需考量道德與信任,盡力避免產生偏誤或偏。
施耐德電機表示,現正處於AI發展史上的關鍵時期,人類以前所未有的規模和速度在各個領域應用AI技術。隨著AI使用日漸普及,社會上興起關於倫理、責任、信任的討論,企業也需在使用AI提升效率的同時做好風險管理。尤其現階段AI仍有諸多不完善之處,例如圖像辨識無法精確判別差異、以及招聘建議可能含有偏見等種種例子顯示人們並不能完全信任AI。
能源管理及自動化領域的數位轉型業者法商施耐德電機Schneider Electric建議企業在開發與使用AI時,應堅持遵守以下三項準則:
符合法律與規範:如施耐德電機擁有完善的網路安全政策,符合ISO/IEC 29147和ISO/IEC 30111的標準,同時積極參與AI法律的制訂,並承諾完全遵守相關法規。
道德與信任守則:施耐德電機以最高標準的道德與信任,對減少碳排與降低能耗做出承諾,而將AI導入解決方案時,也以同樣高標準的道德與信任作為原則。
內部政策與流程:施耐德電機擁有數位風險與數據管理主管負責AI專案,並成立RAI工作小組(Responsible AI Workgroup)跟進歐洲與美國最新的AI法案,持續關注倫理議題。
施耐德認為,人們不能盲目相信AI,企業也要選擇具有專業知識且可信任的AI供應商合作,確保服務符合最高標準的倫理道德、數據隱私、網路安全。施耐德電機提供關鍵設施的解決方案,包含國家電網、核電廠、醫院、汙水處理等,因此深知道德與信任的重要性,作為一家可信任的企業、持續開發可信任的AI解決方案,並以同樣負責任的方式導入AI,確保服務與產品兼具安全、高效、可靠、公正、隱私。(附圖由施耐德提供)