美國高層警告:AI能力躍升恐被用來入侵銀行帳戶,消費者「應當心

官員警示AI帶來新型網安風險,金融與科技業正加強防護,監管需在創新與安全間取得平衡。

美國官員Scott Bessent在電視訪談中直言,隨著大型語言模型(LLM)能力出現「階段性飛躍」,AI工具可能被用來滲透銀行帳戶及其他關鍵系統,消費者應提高警覺。他在Fox News節目上表示:「We’re going to make sure that things stay safe.」並在被問及民眾是否應該擔心時簡短回應:「You should.」

背景方面,Bessent指出,這股風險已促使部分金融機構與科技公司加強防禦措施。據他所述,4月他與聯準會主席鮑威爾在華盛頓與華爾街主要高層舉行了一場未預期的會議,討論與人工智慧快速進展相關的網路風險,會中也提到由Anthropic等公司推出的新模型所帶來的威脅。Bessent強調,未來還會看到其他AI公司的類似技術出現,這要求監管與業界必須同步升級防護。

主旨與分析:Bessent的論點有三個重心——一是AI模型能力迅速提升,可能被濫用於社交工程、身份竊取或自動化的入侵手法,進而威脅個人與機構的存款與關鍵系統;二是金融與科技業界已注意到這些風險並在加強抵禦;三是政策面須在鼓勵創新(以維持對競爭對手或敵對國家的優勢)與維護系統安全之間取得平衡。值得注意的是,Bessent在談話中並未細述各銀行或監管單位已實施的具體措施,僅強調整體方向與必要性。

事實與案例補充:報導點出,Anthropic近期釋出的新語言模型被視為本次「能力躍升」的代表之一,引發監管與業界關注。金融機構方面,已有銀行公開表示正在投資於行為偵測、強化多重驗證與異常交易監控系統,但多數細節屬商業機密,難以全面檢視其有效性。此一情勢也導致監管機構與中央銀行高層召開專題會議,評估系統性風險與跨界合作機制。

替代觀點與駁斥:部分論者認為,AI風險被高估,過度監管可能抑制創新與產業競爭力;另有觀點指出現行資安工具與治理流程已足以應對新威脅。對此,Bessent及相關專家反駁稱,當前LLM的能力提升非線性、且被不當使用時會放大攻擊規模與自動化程度,既有的防護未必能即時涵蓋新型攻擊路徑,因此需要針對AI特性設計新防線並加速公私部門協調。

結論與未來展望/行動呼籲:專家建議三項短中期作法——一是金融機構應加速採用針對AI濫用情境的偵測與應變機制,二是監管面應提供清晰指引與跨部門合作平臺,三是消費者需採取基本防護措施(如啟用多重驗證、定期檢查帳戶活動、提高對詐騙手法的辨識力)。展望未來,相關會議與監管討論可能增多,若科技公司、金融業與政府能建立快速資訊共享與共同演練機制,將有助降低AI帶來的系統性風險;反之,若忽視此波技術變化,個人資產與金融穩定性都可能面臨更高威脅。

點擊下方連結,開啟「美股K線APP」,獲得更多美股即時資訊喔!
https://www.cmoney.tw/r/56/9hlg37

免責宣言
本網站所提供資訊僅供參考,並無任何推介買賣之意,投資人應自行承擔交易風險。


文章相關標籤
喜歡這篇文章嗎?
歡迎分享,讓更多人可以看到!
  • facebook
  • line
作者文章
最新文章