美國擬定嚴格AI規範 針對Anthropic爭議展開行動

美國政府草擬新規則,要求AI公司在與聯邦合作時須允許“任何合法”用途,此舉因Anthropic引發的安全風險而加速。

隨著人工智慧技術迅速發展,美國政府正面臨如何有效監管的挑戰。根據《金融時報》的報導,近期美方已草擬出一系列嚴格的新規則,專門針對與民用人工智慧相關的合約,這一舉措源於特朗普政府對初創企業Anthropic的使用問題產生分歧。

報導指出,新規將要求所有希望與聯邦政府合作的AI公司,必須容許其模型被用於“任何合法”的目的。國防部長Pete Hegseth更是將Anthropic標記為“供應鏈安全風險”,顯示政府對該公司的高度關注。

此外,總務署(GSA)近幾個月來也制定了新指導方針,旨在提升AI服務的採購效率。這些指導方針明確表示,承包商不得故意在AI系統資料輸出中編碼偏見或意識形態判斷,並要求提供中立且不帶有政治色彩的工具,以避免操控回應支援如多樣性、公平和包容等意識形態。

在此背景下,GSA將向業界徵求進一步意見,計劃最終完善這些指導方針,並與軍事合約相似。值得注意的是,GSA旗下的聯邦採購服務部已與包括微軟、Meta、xAI及谷歌等主要AI公司簽訂協議。

此次報導同時提到,Anthropic作為一家由亞馬遜及谷歌支援的生成式AI公司,目前正在努力解決與特朗普政府之間的僵局,期望能夠解除其“供應鏈風險”的標籤。未來,隨著AI技術的不斷演進,政府如何平衡技術發展與安全考量,仍將是一大挑戰。

點擊下方連結,開啟「美股K線APP」,獲得更多美股即時資訊喔!
https://www.cmoney.tw/r/56/9hlg37

免責宣言
本網站所提供資訊僅供參考,並無任何推介買賣之意,投資人應自行承擔交易風險。


文章相關標籤
喜歡這篇文章嗎?
歡迎分享,讓更多人可以看到!
  • facebook
  • line
作者文章
最新文章