
AI深偽裸照工具氾濫,全美受害女性面臨心理創傷與法律難題,科技巨頭與政府正被迫面對強烈追責壓力,多州積極立法反制,AI道德議題引發全社會反思。
隨著生成式人工智慧(Generative AI)技術爆發性成長,AI深偽(nudify)色情影像已成為美國最新潮且最危險的數位性暴力。近日明尼蘇達州多名女性接獲親友警告,發現自身照片被利用於DeepSwap等AI平台,安全及隱私莫名遭侵害,心理創傷難以言喻。值得注意的是,這類AI工具不僅技術門檻低、操作簡易,甚至透過Facebook(META)、Google Play(Alphabet, GOOG)、Apple Store(Apple, AAPL)等主流管道及社群廣告公然推廣,短短數年就滲透社會各年齡層,女性、尤其是年輕族群首當其衝。
根據美國多位安全與法學專家說法,現行聯邦與地方法令面對這波AI色情深偽風暴明顯滯後,僅有部分州如加州、明尼蘇達等開始立法打擊非自願製作深偽圖像。儘管2025年聯邦通過「Take It Down Act」,明確禁止非自願色情深偽影像公開並設罰責,但對許多遭受技術侵襲、但尚未外流或分散的受害者,現行法令仍難以提供實質救濟。明尼蘇達州議員甚至推動新法,意圖對製造、散布深偽影像的業者科以巨額罰鍰,強制AI科技商須負責監管違規行為。
科技巨頭如Meta、Alphabet、Microsoft(MSFT)、Amazon(AMZN)等也面臨空前壓力。許多AI深偽工具明目張膽於Instagram、Facebook等平台投放數千則廣告,部分平台遲遲未及時移除相關廣告內容,甚至有指控業者刻意規避審查。Meta近期宣稱已移除大量違規廣告並對多間AI nudify服務業者發出禁令,但研究人員仍不斷發現新一波廣告湧現,社群監管挑戰陡增。加州與舊金山則藉消費者保護法起訴包括Briver LLC、Joy Timeline HK等AI偽色情影像服務商,有部分網站已被強制下架。
AI深偽影像帶來的傷害不只是個人隱私流失,更可能造成受害者巨大心理壓力、自殘與信任危機。心理學與法學界警示,影像一旦生成,不論是否外流,都如「達摩克利斯劍」懸在受害者頭上。現階段,一旦AI生成非自願色情影像,即使僅限製作者端,法律往往無法及時介入處罰。部份受害女性不得不透過網路搜證、購買臉部辨識服務試圖自救,甚至向FBI與地方警察報案,卻屢遭法令空白障礙。
面對AI深偽技術的迅速擴散與變種,專家呼籲政府、國會、企業與司法體系應及早正視並積極修法,從加重業者責任、加強合規監管、主動攔截廣告,到協助受害者實質救濟,全面防堵數位性暴力蔓延風險。儘管技術進步難以逆轉,社會各界正掀起激烈AI倫理與隱私保障討論,這場深偽色情風暴很可能成為AI發展史上第一個重大道德與法治考驗,考驗著科技巨頭與立法者如何在創新與安全間取得平衡。
點擊下方連結,開啟「美股K線APP」,獲得更多美股即時資訊喔!
https://www.cmoney.tw/r/56/9hlg37
本網站所提供資訊僅供參考,並無任何推介買賣之意,投資人應自行承擔交易風險。





