元宇宙科技

人工智慧的誤用與風險管理

AI獨特的易用性和無與倫比的生成能力  易產生危害需加以管控

文/張瑞雄  

在科技迅速進步的今天,人工智慧(AI)成為推動社會進步的重要工具。但這項技術的發展也有它的兩面性:既可造福人類,又可能因為誤用而帶來巨大危害。從偏見誤導到深偽影像,AI的潛在危險性日益明顯,所以風險必須加以管理。

AI誤用的實際案例

二○二○年,一款名為Genderify的AI工具聲稱能根據姓名、用戶代號或職業來判斷性別。但該工具被發現存在嚴重的性別偏見,例如輸入「教授」一詞時,Genderify預測為男性的概率高達九十八.四%,而輸入「愚蠢」則有六十一.七%的女性預測概率。這種偏見引起了憤怒和批評,最終該工具在上線一週後被迫關閉。

二○一八年,Uber的一輛自動駕駛汽車在美國亞利桑那州撞死了一名行人。事後調查發現,車輛的AI系統未能正確識別行人,且安全駕駛機制未及時接管控制,導致悲劇發生,讓人們產生對自動AI駕駛技術安全性的質疑。

某些企業使用AI進行招聘,但由於訓練資料存在偏見,導致AI系統在篩選簡歷時歧視特定性別或種族的求職者。例如亞馬遜曾開發一款AI招聘工具,但該工具被發現對女性存在系統性偏見,最終被棄用。

AI在醫療領域的應用也存在風險,由於訓練資料集中女性或少數群體,資料代表性不足,可能導致AI診斷系統對某些群體的診斷準確率降低,進而影響醫療準確和公平性。這些事件讓我們不得不重新思考,AI是否僅僅是一種工具?或它的特性讓誤用的可能性變得更大?

AI的獨特性在於它的易用性和無與倫比的生成能力,例如傳統的影片編輯工具雖然也能製作類似內容,但需要專業技能和高昂的成本,而生成式AI僅需簡單的文字輸入即可實現。這種低門檻大幅降低了不當使用的技術障礙,使更多人能輕易地進行危害性行為​。

針對AI誤用的討論已不再侷限於學術界,許多研究者主張在AI項目開發的初期,就應對其潛在風險進行全面評估。一些專家提出「安全設計」的框架,包括與倫理學家合作、使用隱私增強技術以及進行對抗性測試等措施,以減少誤用的可能性​。

誤用的社會影響:深偽技術與「謊言紅利」

深偽技術(Deepfake)利用AI生成逼真的虛假影像或聲音,被不法分子用來偽造他人聲音、照片、影像等進行詐騙,甚至製作不雅影片,對受害者造成嚴重傷害,這種技術的濫用讓人對AI搖頭。

深偽技術的濫用加劇了真偽難辨的問題,例如在二○二四年,大量非自願的名人深偽影像充斥社交媒體,而這些內容的製作只需利用簡單的AI工具稍作變形即可繞過保護機制。而且這種現象可能帶來「謊言紅利」效應,權力人士可以輕易否認證據的真實性(對自己不利的證據就說是深偽製作的),混淆視聽。

這些問題不僅侷限於影像領域,在法律、金融和教育等領域,AI的誤用也帶來嚴重後果。例如荷蘭稅務機構使用的AI演算法錯誤地指控數千名家長涉嫌福利欺詐,導致社會信任受損和政府高層辭職​。

全球性的法規挑戰

AI的快速發展讓現有的法規體系顯得落後,各國在應對AI誤用方面仍處於摸索階段。例如針對深偽技術的立法試圖遏制不當應用,但其有效性尚有待觀察,同時開源AI工具的普及加劇了監管的複雜性,如何在促進創新與防範風險之間取得平衡成為關鍵。

對AI發展的前瞻性建議

要處理AI誤用問題,我們需要多管齊下:

一、強化倫理教育與風險意識:在科技開發的每個階段,開發者都應考慮技術的倫理影響,並接受相關訓練。

二、建立多方協作機制:政府、企業與學術界應攜手合作,共同制定AI應用的安全標準。

三、引入技術保護措施:例如強化生成式AI的內容審核機制,設置更嚴格的使用限制。

四、加強國際合作:AI的誤用問題具有跨國性,各國應分享經驗並協調立法。

AI的發展為人類帶來無限可能,但它的誤用風險同樣不可忽視。我們必須正視這些挑戰,制定前瞻性策略,確保AI的發展以人類福祉為中心,不能等到悲劇發生後才開始行動,應該在科技的早期階段就引入風險控制措施,才能讓AI成為真正的造福工具,而非災難的催化劑。

本文作者張瑞雄 台北商業大學前校長/叡揚資訊顧問

延伸閱讀

Back to top button