AI可能產生重大的社會影響 法律必須介入
文/張瑞雄
AI的快速進步堪稱革命性的,其能力曾一度僅限於科幻小說領域。但隨著AI潛力的成長,與其監管相關的挑戰也隨之增加。
台灣目前正在制定AI基本法,希望管理未來AI系統的開發和應用,歐盟也已經制定且實施了AI法案(AI Act),至於美國則是各州單獨立法,最近加州將要通過的AI管制法案SB-1047則凸顯了創新、監管以及AI開發者和使用者的道德責任之間的緊複雜關係。
以Grok為例:AI影像生成的狂野西部
Grok是電動車特斯拉創辦人馬斯克(Elon Musk)的X.AI新創公司開發的AI聊天機器人,它與OpenAI和Google等其他AI公司所採取的謹慎做法截然不同。 Grok的吸引力在於它沒有把關,允許使用者產生任何圖像,這種故意不加限制的做法導致了有爭議且常常令人反感的內容激增,引發了人們對AI倫理影響的嚴重質疑。
馬斯克將Grok描述為「世界上最有趣的AI」,這反映了科技界AI的廣泛趨勢,即對「樂趣」和「創造力」的強調往往以犧牲責任和道德考量為代價。Grok製作的圖像顯示出對AI內容審核採取自由放任的危險。雖然馬斯克的支持者可能會稱讚Grok是其他AI公司過於謹慎和「覺醒」(Woke,最初源於非裔美國人社群,意指對社會不公正、種族歧視和其他形式的壓迫保持覺醒和敏感)的解毒劑,但潛在的危害是不可否認的。
美國加州的AI立法
與Grok隨心所欲的世界形成鮮明對比,加州的SB-1047法令代表著對新興AI產業強加秩序的嘗試,為解決與AI開發相關的一些最緊迫的問題,包括潛在的危害和問責的必要性,但許多人擔心它可能會扼殺創新並迫使AI公司離開加州。
SB-1047的核心問題是當AI系統造成傷害時,誰應該負責?該法案傾向於讓AI系統的建立者承擔責任,要求公司確保其產品不會造成傷害,並對被視為危險的AI模型實施「終止開關」等安全措施。這種做法與以前的法律精神不同,根據美國《通訊規範法》(Communications Decency Act)第230條,科技公司在很大程度上無需為其用戶的行為承擔責任。
關於SB-1047的爭論象徵著創新與監管之間的緊張關係。一方面顯然需要採取保護措施,以防止AI(無論是透過傳播虛假資訊、製造深偽資料或其他惡意使用)造成重大損害。另一方面過於嚴格的監管可能會阻礙AI技術的發展,特別是在一個靠實驗和快速更換的產業。
道德兩難:平衡創新與責任
Grok和SB-1047的案例說明了當技術創新超過監管框架時出現的道德兩難,加州的SB-1047雖然不完善,但代表著解決這些風險的重要一步。該法案對責任和安全的強調反映出人們越來越認識到AI不僅僅是另一種技術,而且有可能產生重大的社會影響,當然該法案也強調了監管AI仍處於起步階段,且未來AI能力還是難以預測。
創新與監管之間的緊張關係並不新鮮,但在AI領域尤其嚴重。與以往的技術進步不同,AI有潛力實現決策過程自動化、影響公眾輿論,甚至改變選舉結果。因此AI的風險更高,也更迫切需要謹慎、深思熟慮的監管,但我們希望監管不要扼殺AI的創新。
展望未來:負責任的AI發展之路
隨著AI的不斷發展,平衡科技進展和監管的需求將變得越來越重要。這種需求必須認識到AI在推動經濟成長、改善生活品質和解決世界上一些最緊急問題方面的潛力,同時它還必須認知AI的風險並確保採取適當的保障措施來防止傷害。
一條可行的道路是制定AI產業標準和最佳實踐,引導AI朝著負責任的方向發展。這些標準可以幫助縮小創新和問責之間的差距,為AI公司提供一個可以在其中運作的框架,同時最大限度地降低傷害風險。這些標準可以與產業、政府和民間合作制定,確保它們反映廣泛的觀點並解決所有利害關係人的關切。
最後,大眾必須了解AI的潛在風險和好處,誤解或無知是負責任地開發和使用AI的最大威脅。透過提高大眾對AI的認識和理解,我們可以幫助確保AI可以造福整個社會。(本文作者為台北商業大學前校長、叡揚資訊顧問)