(生成式人工智慧)
一、組織運用生成式人工智慧產出之資訊不可完全信任,應就該資訊之風
險進行客觀評估與管控,亦不得以未經確認之產出內容直接作成決策
之唯一依據。
二、組織在無適當管控機制下,人員不得向生成式人工智慧提供涉及應保
密、未經個人或未經組織同意公開之資訊,亦不得向生成式人工智慧
詢問可能涉及機密業務或個人資料之問題。但封閉式地端部署之生成
式人工智慧模型,於確認系統環境安全性後,得考量資訊機密等級提
供。
三、組織使用第三方業者開發之生成式人工智慧系統,如無法掌握訓練過
程及確保其數據或運算所得出之結果符合公平性原則時,應對該系統
產出之資訊由人員就風險進行客觀且專業管控。
四、組織導入生成式人工智慧系統,應重視公平性及以人為本的價值觀評
估是否對特定群體產生偏見或歧視之情況,並降低可能之不公平情況
。
|