負責任的使用 AI 人工智慧準則
人工智慧(Artificial Intelligence,AI)是由人類所設計編程的,它符合人類的思考和行為模式、假設模式和文化上的影響,但到頭來它仍是一台機器。為了實現人機的負責任共存,我們應當討論「為什麼要協作」以及「如何協作」的相關問題。我們將道德標準納入演算法,維持一致的倫理規範,建立信任關係。
正因如此,在研發以人工智慧或統計學為基礎的自動化決策時,以下的發展指南對我們很重要。我們的首要任務是為人們發展 AI 應用,而不是反對使用。所以我們以監管架構、現行法規和道德標準作為應用原則,同時遵循 Otto Group 的道德守則(Code of Ethics)與 OSP 的企業價值。
1. 人為判斷優於 AI
人類行為將優於人工智慧,AI 是決策輔助工具。我們會負責監控應用程式的表現,且可以在任何時候介入。我們還會定期驗證運行中的 AI 模型,使資料結果以視覺化呈現,以便快速辨別異樣。這項方法特別適用於可能產生深遠影響和失去信心的案例,會由負責部門進行評估。
2. 透明取得信任
唯有消費者認同 AI 應用的附加價值,產生足夠信任,人工智慧才會成功。因此,我們會告訴使用者他們正在與人工智慧互動,並對此進行標註。我們就 AI 的可能性和限制性進行公開交流,而對我們來說,真正重要的是讓 AI 運作功能易於理解,並在可能的情況下解釋獲得的應用成效。我們嚴格檢查是否可以遵循採用簡單且複雜度低的演算系統實現目標,也不會造成品質大幅損失。
3. 無差別待遇、多元性、公平性
多元性對我們很重要,我們的目標是研發能做出公平決策且不具歧視性的 AI 模型。這也是為什麼 AI 所依據的假設、數據須要盡可能具備代表性。然而,我們知道自動化決策演算法有時會互相競爭,即便採用以 AI 為基礎的決策輔助系統也無法完全避免歧視和價值扭曲,因為在消除不公平待遇的同時,可能會暴露出其他不公平的類型。我們在研發和編寫 AI 程式時考慮到這一點,並嚴格審視我們的成果。我們採用可逆性原則,AI 的結果在本質上是能追本溯源的,因此如果有收集到確切的證據,我們可以透過人為干預逆轉決策。
4. 永續性
我們只在適合的情況下才會發展 AI 應用。如果一個相對簡單的方法效果更顯著,我們不僅會採用它,還會讓客戶對它產生興趣。我們同樣遵循極簡數據(Data Minimalism)原則,為應用模型特別選擇真正需要的數據,並盡可能簡化模型。這是為了達成資料保護、運行時間和減少資源消耗的目標。
5. 安全穩固,避免受操控
我們知道 AI 應用程式可能受蓄意矇騙和操控。我們因而考慮到當前應用程式的相關安全標準,並確保數據和決策制定的基礎受到保護,避免有意或無心的操控。為此,我們有意識地投入時間進行必要的特定應用研究,尤其是在資料由外部匯入的情況下。我們的目標是擁有一個輔助人類且無害的 AI 系統。
6. 資料保護和資料管理
負責任的資料管理和安全資料儲存不僅是我們身為 Otto Group 成員的義務,也是信任感的象徵。我們認識到保護個人和敏感資料的重要性,盡可能透明傳達資料由誰使用和其使用目的。
7. 職責、義務、承擔責任
針對我們的自動化應用中,我們清楚定義系統和功能的負責人且記錄相關的執行任務,這也適用於共同責任。有關義務問題則可以在法律要求的框架中獲得解答。