EY安永是指 Ernst & Young Global Limited 的全球組織,也可指其中一個或多個成員機構,各成員機構都是獨立的法人個體。Ernst & Young Global Limited 是英國一家擔保有限公司,並不向客戶提供服務。
概要
雖然銀行與金融機構多年來一直在各種前、中、後臺的服務中,嘗試部署使用數據分析與類似專家系統,或決策支援系統等類型的人工智慧應用,包括管理信用風險和欺詐;然而,金融服務中的生成式AI與之前各類型的智慧型應用方法相比,儼然發生了重大變化。
生成式AI帶來的潛在可能,讓金融業在面對未來數位金融發展的大趨勢與推力之下,銀行業主管與從業人員莫不期待此類新穎的智慧型應用,具有深度改變更廣泛金融業務功能的潛力。
許多以生成式AI為基底的應用系統已被認為具有優化人力的專業水準,且在協助銀行從業人員處理繁複的計算分析與系統開發、提升生產力或降低大量人力投入等領域最受期待,其中包括重新定義財務諮詢、保險索賠處理、客戶行銷、參與及服務的未來發展可能性。法遵與合規性監控、聯絡中心營運、應用程式開發及維護等內部應用程式也在考慮範圍內。
然而,目前該技術仍處於早期階段,生成式AI必須在一個生態系統中使用,將其與人類專業知識相結合,促進協同作用,利用兩者優勢來提供準確的見解並創造價值。該技術主要價值領域分為兩個主要類別:
這兩大類型使用範例的擴展,是由該生成式AI技術提供可訂製化或避免人為疏漏處理的金融業務經營支援與金融風險管理功能,相較傳統大數據分析而言,人工智慧有顯著進步。過往的人工智慧應用在圖靈測試(Turing Test)方面,從未有類似生成式AI經歷圖靈測試如此讓人驚艷的結果,例如以色列AI新創獨角獸於2023年3月的全球大規模圖靈測試得到突破三成的測試結果,象徵生成式AI類似人類的推理與交流,已產生數十倍的提升效果,特別是在解析與理解文本等非結構化資料方面。
透過以自然的人類互動或問答形式查詢資料,並提供自然語言指令來創建或完善新的業務內容,此種進展不但實現更多潛在用途,更帶給金融業無窮的期望,對其他產業亦然。
由預訓練(Pretrained)機器學習模型支援的生成式AI工具,正悄然改變銀行業內部的作業面貌。無論是和研究機構與大學之間的產學合作,或銀行業促進內部數位轉型,與顧問產業或金融資訊服務業者與金融中介機構者的概念驗證合作,甚至銀行業內部自行研究開發,生成式AI無疑將逐漸成為金融經營事業檯面上最重要的議題之一。
儘管我們仍處於生成式AI革命的開端,然基於ChatGPT在不到3個月的時間內就獲得超過1億的每月活躍用戶,使其成為史上成長最快的應用系統。這些顯著的進步站在生成式AI的最前沿,突破了機器處理文字及語言的界限。
但毫無疑問地,銀行業的許多領域都將不斷發展。預計金融服務中受影響最嚴重的垂直行業,包括消費性金融為主的銀行、財富管理相關機構、中小企業銀行、商業銀行以及投資銀行和資本市場機構。縱然生成式AI要透過類似如ChatGPT等大型語言模型(Large Language Model)作為核心運作邏輯,以支援各類金融應用系統的智慧能力擴充。
然而,生成式AI也面臨原生自人工智慧發展的先天風險課題與挑戰,基於金融業主管並不了解其行業中大多數生成式AI應用的考量,加上監理機關尚未全面掌握此類技術對金融消費與市場的影響,在在減緩金融業採用生成式AI的導入速度。
大型語言模型的採用引發各領域行業觀察家、學術界、監管機構及廣大公眾的討論與不同觀點,敦促各國政府加快人工智慧監理與治理之聲不斷高漲,以因應生成式AI模型的廣泛使用及其帶來的相關風險。主要議題逐漸轉移集中至生成式AI的倫理挑戰、隱私、信任及安全方面。
儘管有這些擔憂,人們普遍認為生成式AI將改變眾多產業的工作方式。而所有行業確實也投入了大量的時間、金錢和資源以積極評估這項技術,企業在人工智慧方面的支出水準一直在迅速增加。以下是生成式AI在金融業可能適用的場域:
人工智慧在銀行業的一個主要應用是防止詐欺。根據雜誌報導,2021 年網路犯罪造成的全球損失為6兆美元,預計至2025年將達到10.5兆美元。為了保護其業務,銀行必須認真確保資料安全。
今全球許多銀行都設有大型防詐欺部門,然而,傳統防詐部門的運作與維護成本可能很高,囿於詐欺樣態變化快速,案件類型層出不窮,這類部門在打擊金融詐欺上成效有限。例如全球推動的理專風險管理與我國的理專十誡,單靠內控、道德勸說以及各類可能警示的指標,常在員工士氣與適度管理上犯難。
而使用新的生成式AI技術,可以追蹤位置、設備及作業系統方面的交易,進而可標記任何不符合預期模式的異常或行為,銀行防詐人員便可審查可疑行為並決定是否值得進一步調查。與傳統數據分析方式不同之處,生成式AI可以不斷挖掘合成資料,並更新其偵測演算法,以跟上最新的詐欺樣態。這種主動(Active)方法可以幫助銀行在過去詐欺防禦的演算上,進一步提升預判能力。
銀行也可以使用生成式AI要求用戶在存取其帳戶時提供額外驗證,例如人工智慧聊天機器人利用對客戶有更深層的認知,要求使用者回答安全問題,或執行類似多重身分驗證(MFA)的進一步身分確認詢問,銀行可透過多種方式使用生成式AI進行客戶服務互動體驗,進而提高效率並保護自己免於詐騙。
風險管理對於避免金融災難與維持業務平穩運作至關重要。因此,銀行既有的風險處理準則乃基於國際清算銀行的巴塞爾資本協定(Basel Accord),該協定的運作品質也高度仰賴有品質的數據累積。當以歷史資料進行訓練時,生成式AI可以偵測並識別潛在風險與金融風險,提供早期預警訊號,以利銀行有時間適應並預防(或至少減輕)損失。
銀行專用的客戶信用評分也是如此。銀行可以利用機器學習演算法與人工智慧分析多個來源的大量數據,創建更全面的貸款申請人財務狀況,而不是依靠傳統的信用評分元素來確定信用價值。
生成式AI可識別歷史財務資料中的模式和關係,甚至根據假設場景進行模擬,幫助銀行進行財務預測並產生合成資料,評估一系列可能的結果並做出相應計畫。簡而言之,生成式AI可以回顧過去,幫助銀行對未來做出更好的財務決策,並創建綜合數據以對風險曝險進行穩健分析。
銀行常需要投資具備精準且客製化的行銷,避免盲目行銷帶來的巨大成本,更需排除客戶因接到浮濫的行銷電話而導致厭惡感,進而在競爭中脫穎而出並贏得新客戶。但這需要大量且深入的客戶分析,可能既昂貴又耗時。
生成式AI可以透過分析客戶偏好與線上行為,由人工智慧預判,將潛在客戶分成偏好類型的群組,而非僅憑經驗概分的客戶類型,銀行便可根據市場狀況和趨勢,為不同群體量身定制行銷活動。此外,銀行也可以使用生成式AI幫助創建適合的行銷素材,並追蹤轉換率及客戶滿意度,再透過A/B測試的執行以測試其效度。
除了提供類似人類的全天客服支援,包括回答客戶詢問、個人資料更新外,生成式AI還可進一步分析客戶數據,做出個人化的產品推薦。例如,當客戶提供利率、首付金額、信用評分等相關詳細資訊後,生成式AI可快速準確地提供其可負擔的抵押貸款,甚至根據客戶的消費習慣、財務目標及生活方式推薦信用卡,以這種方式交叉銷售其他金融商品。
在對話式金融的背景下,生成式AI模型可用於產生更自然且與情境相關的回應,因為經過訓練後,它們可以理解並產生類似人類的語言模式。例如,某知名國際金融服務公司採用OPEN AI聊天機器人,利用公司內部蒐集的研究與數據源,為財務顧問提供支援。該對話式金融為客戶提供相關支援與個性化的財務建議。
在銀行業的貸款決策過程中,人工智慧幫助銀行與金融機構評估客戶的信用額度,並根據風險設定貸款定價。然而,決策者與貸款申請人都需要對人工智慧決策做出解釋,例如拒絕申請的原因,以培養信任並提高客戶對未來申請時的認識。
條件生成對抗網路(GANs)是一種生成式AI變體,用於對用戶申請准駁與否的友善解釋。從簡單到複雜分層組織拒絕原因,採用兩層條件為申請人產生更容易理解的解釋
這些模型可以在大型金融知識資料集上進行訓練,以利用適當的資訊來回應各種金融查詢,包括以下主題:會計原則、財務比率、庫存分析、監理合規性。
生成式AI的另一金融應用為優化投資組合。分析歷史財務數據並產生各種投資場景,生成式AI模型可以幫助資產管理者及投資者確定最佳的資產與財富管理方案,同時考慮風險承受能力、預期報酬等因素,金融專業人士能夠調整投資策略,優化風險調整後的報酬,就投資組合做出更明智的決策。
在銀行業使用生成式AI有其挑戰和限制,生成式AI也具備新進技術帶來的雙面刃,如在處理敏感的客戶資料時,應謹慎使用。
生成式AI的另一個限制是,如果輸入資料不完整,可能產生不正確的結果,或為了組合出專屬內容,產生如吹噓或誇大的查詢結果,學術界與法律界以及技術實踐產業常稱此為人工智慧幻覺(AI Hallucination)。因此,銀行需要確保數據的合規與準確,否則可能導致糟糕的財務決策。
根據經驗,不應讓生成式AI在貸款核准與其他影響客戶的重要決策中擁有最終決定權,並應加入人類參與(Human Oversight),並在此類AI應用肇始之處,針對投資開發與引進此應用對銀行可能的衝擊與效益,進行倫理審查(Put Human on The Loop)。
在獲得核准開發時,生成式AI應用取得規格、搜集清理資料、整合應用並開始布建等方面,於各階段投入人員進行評測(Put Human in the Loop),並在上線前的使用者測試時,讓需求與開發團隊以外的使用者進行保密的使用情境測試(Put Human off the Loop)。若非此,可改就讓生成式AI承擔所有繁重工作,最後由金融專業人士做出最終決定。
從國際趨勢觀察,各國銀行勢必擁抱生成式AI才能生存,以防止競爭對手在下一代金融科技發展的智慧型(Smart Finance)或認知型金融(Cognitive Finance)取得領先優勢。
但生成式AI也面臨重大的倫理(Ethics)與資訊安全(Cybersecurity)質疑,針對引進AI可能帶來的滅絕風險(Extinction Risk)。除了聯合國秘書長在2023年7月呼籲全球,人類在大量使用AI時可能存在潛在風險之外,早在2022年底美國通過的人工智慧風險管理框架V1.0(NIST AI Risk Management Framework V1.0)、2023年5月的七大工業國會議廣島人工智慧進程協議(G7 Hiroshima AI Process),以及2023年6月通過將實施的歐盟人工智慧法草案(AI Act Draft),都在提醒使用AI潛在的倫理與風險緩解課題。
對於人類社會數位進程與未來應用科技所帶來衝擊的應用與安全隱憂,歐盟網路安全局(ENISA)於2022年初提出人工智慧與演算法的研究報告(ENISA, (2022), “Securing Machine Learning Algorithm”, Athens/EU.),將人工智慧應用的資訊安全風險分為兩大類 — 廣義的人工智慧安全風險與狹義的人工智慧安全風險。其分類如下:
依照美國政府白宮所發布的 「安全與可信賴人工智慧行政命令第14100號(Safety , Secure and Trustworthy Artificial Intelligence Executive Oder, dated by Oct./30th/2023)」,與歐盟所公布的「人工智慧法草案(Draft European AI Act date by June/14th/2023)」,此兩國際間最重要的人工智慧安全治理之法規,均認為人工智慧的安全課題可分為AI發展之 1. 資料治理的安全性, 與 2. 機器學習演算法的安全性,然隨著生成式AI(例如ChatGPT 4.0 或 Llama 2)等高端應用出現,使用基礎模型(Foundation Model)進行機器學習(ML)訓練的先進AI 安全,實為AI應用安全重中之重。因此歐盟資訊安全局(ENISA)亦定義機器學習之開發流程與方式,以闡明AI開發與佈建的安全重點。
ENISA認為機器學習(ML),可以定義為機器從數據中學習以解決任務而無需明確程式設計的能力。機器學習演算法依其特性,例如它們需要大量資料來學習,使得它們成為項目團隊必須考慮且非常具體的網路威脅主題。ENISA亦針對下列AI主要課題可能的相關漏洞,並提出解決這些漏洞的安全控制。
值此人工智慧浪潮來襲並衝擊各產業之際,銀行業的競爭優勢即在於風險管理的優良實踐,因此如何藉由國際人工智慧的倫理與安全標準之實踐來因應充滿未來各種可能性的AI應用,是最佳的競爭優勢布建。
若想率先在人工智慧快速迭代的技術浪潮中確立競爭優勢,金融機構應儘早審視自身策略發展過程中所面臨的技術相關風險和阻礙,即時轉變策略思維。