甚麼是人工智能公司政策?

人工智能公司政策是監管機構內正確使用人工智能科技的運作規則,可協助機構保持合規、確保資料私隱及維持數碼保安。

人工智能公司政策範本

要有效教育員工最佳實務及緩解風險,公司政策需要專注於幾個重點,包括:

目的及範圍

首先要釐清設定人工智能公司政策的目的,並應清楚指明誰人需要遵循規定,包括外判人員或代理機構,與及內部員工等。

核准的應用程式

政策只應列出已獲核准的人工智能相關應用程式,並列出每個程式的正確存取程序以確保合規。不過,登入身份驗證資訊等敏感資料就不應包括在內,而應在個別員工要求存取或新員工入職時以安全方式由管理層提供。

程序及/或使用指引

簡單闡明使用人工智能的正當程序,協助用戶了解及遵循正確的步驟。亦可利用此機會實施運作防護,與及傳遞處理許可、內部傳訊、人工智能生成內容的品質、管制和授予人工智能系統的資料與工具存取的方式。此外,亦可列出在以上程序疑似出現風險或漏洞時的處理方式。

禁止使用

此節應釐清已核准的人工智能應用程式可在何時、何地及如何使用。如果有一些獨特而合理的例外情況,亦應在上列出。像其他政策一樣,所使用的語言應該清楚、簡單及容易明白,以減低錯誤解讀或誤會的風險。

資料私隱、知識產權及使用條款與條件

本節提醒用戶檢視獲許可存取的人工智能工具的條款與條件,從而協助避免誤用及/或責任相關問題。用戶應留意保護資料私隱的重要性,並避免抄襲,尊重知識產權及其擁有人,與及不要讓有問題的工具存取機密資訊。

法規與合規

列出機構及團隊在使用人工智能時需要保持合規的監管機構及相關規例,包括已生效的政府法令及法務、保安及/或資訊科技團隊的要求。

人工智能公司政策例子

泛加拿大人工智能策略

透過多個策略性優先項目以達致統一成效,泛加拿大人工智能策略的目標是「為人民及地球帶來正面的社會、經濟及環境好處。」

Microsoft 負責任人工智能實務

結合研究、政策及建設工程來專注以具道德及負責任態度推動人工智能。Microsoft 已在 2024 年 5 月發佈全面的負責任的人工智能透明度報告,涵蓋配對、判斷及管理人工智能風險,以建設安全及負責任的前沿人工智能模型。

美國國家標準暨技術研究院(NIST)人工智能標準及政策

NIST 一直都與主要的私人及公共持份者和聯邦政府機關密切合作,開發新的人工智能標準。他們「高度參與美國及國際性的人工智能政策建設,例如 US-EU Trade and Technology Council、OECD、Council of Europe、Quadrilateral Security Dialogue」及其他倡議。NIST 亦與美國商務部的國際貿易管理局及美國國務院在這方面合作。

在 2024 年 7 月,NIST 發佈了四份刊物「以協助改善人工智能系統的安全、保安及可信性。」 包括:

人工智能規例與合規

定義人工智能道德規範

人工智能道德規範涉及管理負責任開發、部署及使用人工智能系統的原則及指引,它對應與人工智能相關的定位、公平性、問責、透明度、私隱、風險及社會影響等問題。

前沿人工智能條例的專家建議

OpenAI 研究師發佈的報告(arXiv:2307.03718: 前沿人工智能條例:管理新與風險以達致公共安全點出了多個與規範前沿人工智能模型相關的挑戰及如何協助保護用戶。它指出,「前沿人工智能模型帶來了明顯的規管挑戰:危險的功能可能出乎意料地出現;很難有效防止已部署的模型被濫用;與及很難阻止一個模型的功能被增生。」

此外,報告亦指出「最少有三個基礎構成要素」需要規管:

  1. 可識別前沿人工智能開發人員合適需求的標準訂定程序
  2. 讓監管者取得前沿人工智能開發程序視野的登記與報告要求
  3. 確保開發及部署前沿人工智能模型時符合安全標準的機制

相關研究

相關資料