文/ 金洪基
多數全球AI企業員工聚集衆志,制定11條原則個人信息保護、透明、以人爲本、個人權利和社會利益、開放型創新,穩健性、持續創新、企業成員參與、責任和公正性、專業性等。
各國政府和社會大衆正在就AI倫理展開多種討論。EU等部分國家已經制定了相應的倫理方針。一直強調數字時代平等和道德的國際非營利民間組織Equal AI最近公佈了負責任和道德的人工智慧(Responsible AI)的11條原則,引起了人們的關注。根據Equal AI的報告,負責任的AI被定義爲對所有最終用戶來說安全、全面、有效的AI。 爲此,個人信息保護、透明度、穩健性等構成了原則的核心。因此,這份包含Equal AI自身原則的報告也被各大外媒和科技媒體報導。
非營利民間團體Equal AI報告中披露
據瞭解,這11條原則是由代表全球AI技術的跨國公司眾多高管和員工參與而制定的。谷歌、Deep Mind、微軟、Salesforce、AWS、Verizon、SAS Institute、百事可樂, 還有以顧客參與著名的LPSN、航空宇宙及防衛企業Northrup Grumman等。報告裡面並沒有特定生成AI。取而代之的是用「 當前正在構建、獲取和集成的複雜人工智慧系統」來表現,事實上包含在內。Equal AI的負責任的AI治理框架包括以下11個原則。首先是保護個人信息、透明度、以人爲本、尊重個人權利和社會利益、開放創新、穩健獎勵等。此外,持續創新和審查,引導企業成員參與,通過責任優先考慮公平的文化,Human-in-the-loop,即人工智慧決策過程中人類的持續監督,以及專業性開發等。
公佈了包含11條原則的6個「大原則」
這包括了使用健康有益的AI技術所需的美德。Equal AI同時公開了包含上述11個原則的6個大原則即,負責任的AI價值及原則、明確責任範圍、透明流程、多重利害關系人,特別是包容少數、社會弱勢群體的態度等。 同時,還闡明了測定項目、監控及再評價等。EqualAI解釋說:這種框架是以有助於企業經營者或領導者們減少對AI偏見的’認證軌道’Equal AI的’Responsible AI Badge Program’爲基礎的。Equal AI的CEO米裏亞姆·沃格爾在向媒體分發的新聞稿中表示, ‘Equal AI’確信,根據AI原則,企業或組織開發AI並通過制定與其使用、引導決策的規則和標準,可以提高企業、組織的價值。
AI Expo Korea 2023 那麼,個別企業或組織應該爲實現負責任的AI戰略做出怎樣的努力呢?根據報告,大致分爲三種。 首先,最高經營者或高管的支援很重要,要考慮來自多元化但代表性不足的群體的反饋、強調賦予所有職員提出潛在憂慮事項或問題的權限。
AI原則,可以爲企業量身定做,對企業經營也有幫助
對此,Equal AI表示,作為個別企業,可以通過考慮現有公司價值觀和已經使用AI的方式,可以量身定做。 其目標不是達到『零風險』, 實際上也不可能。爲了建立負責任的AI治理文化,績效認可、薪酬、晉陞等獎勵與人工智慧風險緩解的努力聯系起來。那麼負責任的AI治理爲什麼重要呢? 對此,Equal AI引用了Sisco最近實施的研究結果。 即,60%的消費者對企業應用和使用AI的方式表示擔憂, 研究結果顯示, Sisco發現因這種AI慣例, 65%的消費者失去了對公司的信任。他還補充說:投資’負責任的AI’慣例不僅對人類有益,而且對企業經營也有幫助。