AI技術正在高速發展,在各大領域皆有許多新的創新,除了帶來許多便利以外,這些新的AI技術也帶來了各式各樣的問題,其中很重要的一點便是──「AI世界中的道德與規範」。因此在去年年中,歐盟邀請了各領域的AI專家,組織了一個有關於AI的委員會,討論有關於AI使用的道德及準則。

經過一年多的討論,歐盟近日發表了AI道德指引的七大準則:

1、AI 系統不應減少、限制或誤導人類自主及自由。

2、AI 系統必須安全、可靠,以應付各種狀況。

3、AI收集的隱私和數據必須被控管,公民應要能完全控制自己的數據。

4、 AI 系統與演算法須具有可追溯性。

5、AI 需具備多元性與公平性,一視同仁而不歧視,並顧及人類能力和要求。

6、AI 系統應用於推動正向的社會改革、增加永續性和環境生態責任。

7、建立咎責機制,確保AI系統的責任範圍及歸屬。

這個委員會的成員多是由來自學術界或工業團體的專業人士。其中包括 Google、德國SAP公司、西班牙 Santander 銀行、德國拜耳等歐洲的 52 名專家所訂立。

當這些準則落實後,所有製作AI系統的公司都必須依照這些規定設置咎責機制,以避免AI系統被人惡意使用。

歐盟表示,未來歐盟將會依此準則的進行推動,規劃先與歐盟關係密切的國家進行合作,最後目的是推行至全球各國家。

 

文章轉載自AI現場