menu-icon
anue logo
熱門時事鉅亨號鉅亨買幣
search icon

雜誌

生成式AI崛起 與ChatGPT「聊出新未來」

台灣銀行家 2023-04-07 08:16


撰文:張凱君

ChatGPT 的出現,昭示著原本需高度專業才能完成的任務,在生成式 AI 的協作下變成人人可為。金融業必然是深受影響的產業之一,數位金融、財富管理、客戶服務、行銷銷售、風險管理等工作態樣與所需職能都有可能改變。


ChatGPT,一種具備自然語言處理能力,可與人類對話(Chat)的人工智慧,如平地驚雷般異峰突起,倏然攫取世人的關注,一時間彷彿所有人都在談論世界將因 ChatGPT 而如何改變。不過,這幾個大寫字母到底代表什麼意思?

GPT 說文解字

GPT 是「生成式(Generative)預訓練(Pretrained)轉換器(Transformer)」的縮寫。

「生成式」(G)意指 AI 可以模擬人類的創造力與想像力,自動生成新的內容。這些內容的表現形式包括文本、聲音、圖像與影片。例如 ChatGPT 這種大型語言模型就具備生成文字的能力。另外,Stable Diffusion、DALL‧E、Mid journey、Deep Dream Generator 都是 AI 圖像生成器,只需要使用者輸入簡短的描述性字句,就可以在幾秒內生成精美的圖片。而 Amper Music 則可生成適合廣告或電子遊戲等多種用途的音樂。

「預訓練」(P)是指 AI 在進行特定任務的訓練之前,先接受大量資料的非監督式學習。例如 ChatGPT 就藉由閱讀龐大的文本,學習使用文字的語義和語境,及廣泛通用的語言規則,目標是讓 AI 得以根據輸入的文字做出適當回應,接續已輸出的前文生成下一個最適合的文字,完成初步的自然語言處理任務。為了具備更精確的語言理解與運用能力,ChatGPT 在預訓練之後還需要進行「微調」(Fine-Tuning)。微調過程中會使用經過人工標記的資料,讓以預訓練為基礎的模型進行監督式學習。此外,微調還可針對任務的具體需求,調整模型的結構和參數,使模型更能適應特定任務的資料特性,提升 AI 執行該任務的成效。

至於「轉換器」(T),在這裡是一個專有名詞,代表一種深度學習模型,最早由 Google 團隊於 2017 年發表的一篇論文〈Attention Is All You Need〉所提出,這篇文章依據 Google Scholar 所示已被引用超過 6 萬次!論文標題中的 Attention 是 Transformer 中的關鍵架構。這種深度學習模型在構造上可視為「卷積神經網路」(CNN)的推廣,在功能上則用於取代傳統的序列模型〔例如「循環神經網路」(RNN)〕,提升自然語言處理的成效。Transformer 萃取文句中字與字之間的關聯,根據相關性程度,賦予重要詞語較高權重,以利於在長文本中仍能保留重要資訊。就是因為 Transformer 能夠更恰當的捕捉長距離字詞間的相關性,並且可以平行化訓練,因此有效提高自然語言處理的精確度。Transformer 模型用途廣泛,不見得只限於人類產生的文本。例如近期已有生醫領域的企業使用 Transformer 模型,以處理文字字串的方式處理胺基酸鏈,描述蛋白質的折疊方式,希望藉由更深入了解象徵生命之源的蛋白質,來加速新藥物的開發。

ChatGPT 的前世今生

OpenAI 是一家位於美國加州的人工智慧研究實驗室,創立於 2015 年。主要業務包括人工智慧研究與人工智慧產品開發,研究重點聚焦於自然語言處理、機器學習、深度學習等領域。

2017 年 Google 發表 Transformer 模型之後,OpenAI 的團隊開始研究將 Transformer 模型應用於自然語言處理任務中,2018 年 6 月完成 GPT-1。2019 年年初,OpenAI 訓練出 GPT-2,在 GPT-1 的基礎上進一步提高性能,兩代模型的主要差異在於參數數目的多寡與預訓練資料量的大小。GPT-2 的參數數目大約是 GPT-1 的 12 倍,預訓練資料量則是 8 倍,訓練資料取自社交網站 Reddit 上的文章,約有 800 萬篇。該年 7 月,微軟宣布投資 OpenAI 10 億美元,至 2023 年累計投資約 110 億美元。

2020 年 5 月,GPT-3 問世,算力與模型規模大幅升級,參數高達 1750 億個(GPT-2 是 15 億個),預訓練資料量來到 45TB(GTP-2 只有 40GB),把能從網路上獲取的論文、書籍、新聞等各種資訊加入訓練資料集。該模型將大量非監督式學習和監督式學習的成果結合,再次提升了自然語言生成和互動的表現。隨後 OpenAI 開始對模型進行微調,以增強模型的對話能力。

2022 年 11 月 30 日,OpenAI 推出 ChatGPT,是基於 GPT-3 的進一步優化(GPT-3.5),旨在實現更加流暢自然的對話生成效果。

如何與新興物種共存?

ChatGPT 的表現遠超過從前那些傻頭傻腦的聊天機器人,實際使用過的人應該都能體會到這一點。然而,ChatGPT 出現所帶來的啟示,並不僅止於能把機器原本會做但做不好的事做得更好。現在的問題是,神秘的盒子已經打開,可是到底從裡面跑出了什麼東西,我們恐怕並不十分清楚。ChatGPT 及其生成式同類與快速演化的後代,的的確確是這個世界的新物種!

例如,ChatGPT 不僅能夠以高度成熟的方式生成各種語言段落,還可以按文字指示編寫電腦程式。程式碼即使不是每次都立即可用,但雖不中亦不遠,這對專業程式設計師而言等於如虎添翼,可以大幅提升工作效率,縮減時間成本。對於撰寫程式的門外漢而言,這可有效降低程式設計的門檻。我們甚至可以說,用 AI 學 AI 的時代已經到來,這是過去未曾發生的情境。

上述功能只是顯示人機協作即將開啟新篇章的一個例子。今後各類專家都有望找到與自己互補的 AI,彼此填補對方能力或資源的空缺。例如作家的創作過程不再是孤獨的心靈之旅,他可以讓 ChatGPT 撰擬初稿,再予以校正、修飾。除了必須提供原創的故事構想(即使這一點也可能大部分由 AI 代勞),作家的其餘工作其實更像編輯。又如投資分析師也不必再指揮助理收集數據,一字一句敲打出投資分析報告,交給 ChatGPT 處理就好了,只是要記得檢查分析報告的結論是否恰當正確。不過當然也有例外,例如投資分析師的助理,或從事文字翻譯者,他們與 AI 之間的關係,可能替代性大於互補性。

需搭配人類主觀意志判斷調整

這種技術也有令人擔憂的一面。即使表面上與人類應答如流,ChatGPT 並不算真正理解人類的語言,終究只是一個生成看似有意義文句的演算法,本質上可能更接近極為高明的「鸚鵡學舌」。另一方面,ChatGPT 似乎沾染了人類的某些壞習性,不太願意承認自己的無知,反倒時常振振有詞的提供想像、捏造、空泛的內容作為答案;即使對相同的問題給出兩個不一致的回覆,照樣面不改色。但是目前看來還缺乏有效的內建機制,由機器自行驗證 ChatGPT 所生成文本的真實性或正確性。因此,ChatGPT 的使用有其限制,最好不要請教他真假難辨的問題,但可以麻煩他設計行銷文案或規劃教學大綱,提供這一類比較沒有客觀標準答案的建議,再搭配人類主觀意志判斷調整。

此外,ChatGPT 也存在與價值觀或道德相關的議題。例如我們並不知道用於訓練的資料集中包含什麼資訊,如何確信不會讓輸入資料中的偏見以某種方式潛伏於其所生成的文本中?又例如當作家要求 ChatGPT 協助撰稿時,會不會無意間抄襲了既存的作品(存在訓練資料集),結果侵犯他人的著作權而不自知?再者,雖然 ChatGPT 經過微調會拒絕回答違反公序良俗的問題,但只要拐個彎再問一次,還是可能套出答案。例如 ChatGPT 雖不肯傳授如何詐騙,可是如果你說你是為了防範詐騙,請他說明詐騙的方法或舉幾個詐騙案例,他就會欣然接受,而且回答得很仔細。

無論如何,ChatGPT 的出現,昭示著世界已在不知不覺中產生劇變,工作的傳統界限被迫重新定義。原本需高度專業才能完成的任務,在生成式 AI 的協作下變成人人可為。一些苦學有成的技能失去價值,被新的技能取而代之。金融業必然是深受影響的產業之一,至少數位金融、財富管理、客戶服務、行銷銷售、風險管理及其他許多業務的工作態樣與所需職能都極有可能改變。所以,現在應該是時候好好問問自己,生成式 AI 會為你所在的機構與你擅長的工作帶來什麼變化;生成式 AI 會以什麼樣的形式整合到我們的職場與生活中,以及這一切究竟代表什麼意義。(本文作者為台灣金融研訓院金融研究所副所長) 

來源:《台灣銀行家》160 期

更多精彩內容請至 《台灣銀行家


Empty