MetaverseInternationalTech

最好不是像人類的AI,而是人性化的AI

文/金洪基

為了從AGI等危險的AI中保護人類,正在強調AI Aignment技術和必要性,也就是說,這是為了防止AGI脫離人類控制力或向與人類意圖不同的方向實現等。他主張,通過這種AI Alignment,最終應該開發人性化的AI、與人類產生共鳴的AI,而不是模仿或相似的AI。為了防止AI對人類造成的危害,消除對AI的恐懼,必須做出這種努力的呼聲越來越有說服力。

對此,為了預防AI的危險和有害,技術科學、人文學的對策層出不窮。在這種情況下,最近具有說服力的對策是結合AI數據和學習,還有AI評價等的AI定位技術。同時,為了人類,強調開發理解人類並產生共鳴的AI,也就是說,應該以AI定位技術帷基礎,開發與人類產生共鳴的AI。

韓國國內專家之間也出現了這種主張的聲音,Tech Frontier代表韓相基(音)最近就AI Al Alignment定義道,這是讓AI做人類想要做的事情,是制造符合運營者意圖的強大AI系統的問題。通過信息通信企劃評價院公開的研究報告書,他特別強調了AI Alignment的迫切性,他說,隨著LLM的發展,定位的問題變得更加困難,尖端LLM的規模巨大、複雜,其能力也逐漸增加到多個領域。

進行數據、學習、評價三個部門的AI定位研究

同時,他還引用中國華為的《諾亞方舟實驗室》論文,關注了數據、學習、評價三個領域的AI定位研究。

據此,數據部門的AI定位是首先有效收集為LLM定位的高品質指示(Instruction)。 為此,可以使用NLP(自然語言處理)基準,或者通過人進行注釋或者使用更強力的LLM的方法。特別是要想按照人類的期待調整LLM,需要收集能夠真正反映人類需求和期待的高品質學習數據。為此,研究人員再次在人類制定的指示、從強大的LLM中獲得的指示、指示數據管理三個領域進行研究。

另外,學習領域的AI定位研究可以更有效率、更穩定地反映人類的喜好,或者為了減輕LLM定位的計算負擔、改善效率,可以有效使用參數等。另外,將人類喜好度考慮為排名基礎學習信號,或通過語言基礎的反饋,謀求學習的穩定性和性能的提高。

他解釋說,基本上是利用收集的指示數據,對基本LLM進行微調,最廣為人知的解決方案是SFT的監督微調。這再次分為在線人類喜好度學習、線下人類喜好度學習、有效微調參數的解決方案。

對定位結果的評價也很重要。為此,有制定多種評價基準,由人進行評價,還是利用LLM進行評價,還是共同評價等評價種類。另外,還有以多種人類為中心的LLM評價基準和將LLM用於評價的自動評價協議。

不是模仿人類,而是以以人為本的視角進行開發

通過這種技術性AI定位,理解人類並產生共鳴的AI是最終目標。 WCC Tech、TechCrunch等引用的海外專家斬釘截鐵地表示,投資並開發具有認識和解釋人類資質能力的新一代AI機器人非常重要。即,如果使用以人為中心的接近方式,所有用戶都可以將AI視為提高經驗的有用工具。也就是說這樣一來,對將AI整合到日常工作和日常生活中的恐懼就會減少。

通常,AI技術越發達,對AI龐大的知識和能力的不安就越大,問題是開發者和企業正在致力於製造具有名字和個性的AI聊天機器人。也就是說,正在擬人化AI。有人指出,這是AI成為具有獨立思考的主體,恐懼感增大的原因。 特別是分配AI機器人個性除了非常具體的使用事例之外,只會讓人感到恐懼,對改善用戶體驗幾乎沒有幫助。

即,要忠實於AI不可能成為人類的大原則,相反,AI的發展應該把焦點放在情況認識、共鳴等強化有用性的品質上,讓用戶在與AI的相互作用中產生更大的必要性和共鳴。

Open AI的GPT-4圖片(圖=Shutterstock)

AI的未來不是自動化而是共鳴

例如,比起微調Alexa或悉尼等聊天機器人擬人化的個性,更應該集中精力開發人性化AI,而不是與人類相似的AI,禁止成為人類或努力與人類相似的AI。相反,人性化AI是解釋用戶的感情和情緒,並根據用戶的固有要求做出反應。

通過為人性化AI的程序設計,AI機器人可以通過更有意義、自然的相互作用的方式真正支援人類,即AI可以模擬對人類用戶的共鳴。

但是WCC Tech斷言,採用更加人性化的AI並不意味著代替人類勞動。 當然,部分職業會逐漸消失,但為了填補這一空白,將會出現新的職業。 相反,AI應該被開發成強化企業和勞動者的優點,彌補弱點的強有力的工具。
因此,AI的應用是簡化決策程序,自動化作業,提高生產效率的理想,要達到這種境界,還是只有AI人性化並產生共鳴才能實現。

即,AI定位應優先考慮人性化AI的開發。 為此,不僅要有效執行工作,還要開發理解人類的意圖、適應個人喜好、提高日常經驗的AI系統。因此,通過建立人類和AI之間的共生關係,毫無畏懼地強化相互作用應該成為AI定位的目的。

Related Articles

Back to top button