AI 公司政策是有關如何正確使用 AI 技術的一整套作業規範。這套規範有助於確保符合法規、保障資料隱私權,並維護數位安全。
為了讓您的政策能夠有效教育員工了解最佳實務原則並防範風險,這套政策必須聚焦幾個重點領域。包括以下幾點:
首先,開宗明義章節必須闡述您 AI 公司政策的宗旨,同時也必須載明哪些人必須遵從這些規範,比方說,除了正職員工之外,是否包含外包人員或廠商。
此處列出所有經過核准可以使用的 AI 相關應用程式,以及每一個應用程式的正確存取程序以確保符合法規,不過一些敏感的資訊 (例如登入憑證) 則應該省略,這些資訊應該由管理部門在需要存取的人員提出申請時,以及在員工新進流程當中,透過安全的方式提供。
摘要列舉 AI 的正確使用流程,協助使用者了解並遵守正確的使用步驟。這是建立作業安全規範的好時機,同時也順便溝通該如何處理系統權限、內部溝通、AI 生成內容品質確保,以及整體 AI 系統對資料與工具的存取。此外,還要說明當您懷疑上述任何一個環節可能出現風險或漏洞時該如何處置。
本節說明員工「不該」在何時、何地、以什麼樣的方式使用核准的 AI 應用程式。如果有合理的例外情況,也應該在這裡說明。至於政策的內容,您的遣詞用字應該清楚明瞭、簡單扼要,並容易理解,以避免有任何造成誤解或疑惑的風險。
本節提醒使用者務必檢視他們被核准使用的 AI 工具相關的條款與條件,以防止誤用以及有法律責任的問題。此外,也應強調維護資料隱私權的重要性並避免抄襲,尊重智慧財產權以及智慧財產擁有者,同時也不得讓使用中的工具存取機密資訊。
本節說明您企業 (及您團隊) 在使用 AI 時應該遵守的法規,以及相關的監理機構,包括既有的政府法規,還有任何您的法務、資安和 IT 團隊必須遵守的規範。
加拿大政府推動的泛加拿大人工智慧策略 (Pan-Canadian Artificial Intelligence Strategy) 包含了多項策略重點,但全都針對一個共同的使用,那就是「為人民及地球帶來正面的社會、經濟與環境效益」。
這是一群研究、政策及技術文件的集合,目標是要在道德及負責任的方式下發展 AI。Microsoft 也在 2024 年 5 月發表了一份詳細的負責任的 AI 透明度報告 (Responsible AI Transparency Report),內容涵蓋了從發掘、評估及管理 AI 風險,到建立安全且負責任的先驅 AI 模型的一切相關議題。
NIST 一直與各大民間及公部門利害關係人及聯邦機構密切合作來開發新的 AI 標準。他們「一直在與美國及國際 AI 政策制定單位密切合作,如美國與歐盟貿易和技術委員會 (US-EU Trade and Technology Council)、經濟合作暨發展組織 (OECD)、歐洲委員會 (Council of Europe)、四方安全對話 (Quadrilateral Security Dialogue)」,以及其他多項計畫。此外,NIST 也與美國商業部 (Department of Commerce) 的國際貿易管理局 (International Trade Administration) 以及美國國務院 (Department of State) 在這方面密切合作。
此外,NIST 也在 2024 年 7 月發表了四份「旨在協助改善 AI 系統安全與可信賴度」的文件。包括:
AI 道德泛指負責任地開發、部署與使用 AI 系統的原則與規範。AI 道德要解決的是 AI 技術所帶來的平等、公平、責任、透明、隱私、風險以及社會衝擊等議題。
OpenAI 研究人員所發表的一份報告「先驅 AI 規範:管理大眾的新興風險」 (Frontier AI Regulation: Managing Emerging Risks to Public Safety) (arXiv:2307.03718) 點出了幾項如何規範先驅 AI 模型以保護使用者的挑戰。該報告指出:「先驅 AI 模型帶來了一種獨特的法規挑戰,那就是:可能出現意料之外的危險功能,我們很難嚴密防止一個已部署的模型被誤用,也很難阻止一個模型的功能激增。」
此外,該報告在總結中表示,法規「至少要包含三項基本要求」:
相關研究
相關文章