(風險管理及定期審查)
一、運用人工智慧系統應以風險基礎為導向,就個別使用情境,考量是否
提供客戶服務或對營運有重大影響、使用個人資料程度、人工智慧自
主決策程度、人工智慧系統複雜性、影響不同利害關係人的程度及廣
度、以及救濟選項之完整程度等因素進行風險評估。
二、組織應依據風險評估結果視風險大小、特性或範圍,建立適當之風險
管控措施及定期審查機制。
三、組織辦理定期審查時,應評估人工智慧系統是否符合原先運用目的及
風險程度。就風險程度較高之人工智慧系統,得由具人工智慧專業之
獨立第三人進行審查,審查內容宜包括資料品質、模型品質、系統安
全性,以及公平性、永續發展、透明性及可解釋性等,並根據審查結
果調整和改進相關策略和措施。
四、組織運用人工智慧系統於提供與消費者直接互動之金融服務前,應針
對系統所使用之資料的治理方式、資通安全、監督機制、消費者權益
保障及發生非預期事件時之應變措施等,就資安、法遵及風控等層面
進行評估。
|