根據資安產業最新觀察,美國軟體公司Palantir執行長亞歷克斯·卡普(Alex Karp)近日明確指出,美國國防部(DoD)的AI產品應用主要鎖定於戰爭情境下的非美國公民,而非境內使用。此番言論在人工智慧(AI)倫理與軍事應用界引發廣泛關注,特別是Anthropic公司因拒絕讓其AI模型用於大規模監控美國公民或驅動致命自主武器,而與美國政府陷入前所未有的法律糾紛,甚至被列為國家安全風險企業,凸顯了AI技術軍事化背後複雜的倫理與法律挑戰。
國防AI應用界線:Palantir揭示境外作戰原則
在AI技術快速發展的背景下,美國國防部如何運用AI一直是外界關注的焦點。Palantir執行長亞歷克斯·卡普的最新聲明,為美軍AI的應用劃定了清晰的界線,強調其核心目標在於支持境外作戰。卡普表示,國防部對AI產品的運用方向,從未包含境內使用,這意味著其技術主要針對海外衝突與非美國公民的軍事行動。
亞歷克斯·卡普明確指出:「我們仍在處理所有這些事務,是我們的技術棧在運行大型語言模型(LLMs)。」
這項聲明不僅釐清了外界對美軍AI監控國內公民的疑慮,也進一步揭示了大型語言模型(LLMs)在現代戰場情報分析與決策支援中的關鍵角色。根據業界分析,此類AI應用有助於提升作戰效率與精準度,但其倫理邊界與潛在風險仍需嚴謹評估。
Anthropic與五角大廈的AI倫理僵局
Anthropic公司作為AI領域的領先者,其AI模型Claude自逾一年前便已成為美國政府採用的尖端系統,據傳更是首個獲准用於機密資訊的先進AI模型。Claude曾於今年一月被用於逮捕委內瑞拉總統尼可拉斯·馬杜羅(Nicolás Maduro),展現其在情報與執法行動中的潛力。然而,Anthropic與五角大廈(Pentagon)在AI倫理應用上卻出現嚴重分歧。
Anthropic堅信,當前的尖端AI模型尚不足以應用於全自主武器,且大規模監控美國公民將違反基本權利。因此,該公司尋求五角大廈保證Claude不會用於上述目的。然而,五角大廈堅持Claude應可用於「所有合法用途」,雙方對「合法用途」的定義產生了根本性的衝突。此爭議的核心在於:
- AI技術成熟度:Anthropic認為AI模型尚未準備好驅動致命自主武器。
- 公民權利保護:Anthropic強調大規模監控美國公民違反基本人權。
- 政府使用權限:五角大廈主張AI工具應能用於所有法律允許的範疇。
政府報復疑雲:Anthropic提告捍衛言論自由
這場AI倫理爭議迅速升級為法律與政治事件。川普(Donald Trump)政府於今年2月27日宣布,將Anthropic列為對國家安全構成供應鏈風險的公司。這是美國政府首次將一家本土企業認定為「國家風險」,其決策的動機與合法性引發了廣泛質疑。
隨後,Anthropic為一份內部備忘錄的洩露事件向政府道歉,該備忘錄批評OpenAI接受了五角大廈的合作協議,而Anthropic則拒絕了。Anthropic解釋,該備忘錄是在川普總統透過Truth Social平台宣布將其從所有聯邦系統中移除、戰爭部長透過X平台宣布供應鏈風險認定,以及五角大廈與OpenAI達成協議等多項消息公布後數小時內撰寫。為捍衛其立場與權益,Anthropic已於今年3月9日向美國加州北區聯邦地區法院提起訴訟,控告國防部及其他聯邦機構。
Anthropic在訴訟中指控川普政府此舉「前所未有且不合法」,並強調「憲法不允許政府利用其龐大權力懲罰一家公司受保護的言論」。
此案不僅關乎Anthropic一家公司的命運,更深層次地觸及了美國憲法第一修正案所保障的言論自由權,以及政府在採購高科技產品時,能否以國家安全為由,對企業的倫理立場進行「懲罰」的根本問題。
數據背後的啟示:AI軍事化與倫理監管的挑戰
Palantir執行長卡普的聲明,結合Anthropic與五角大廈的衝突,共同描繪了AI軍事化進程中複雜的倫理與治理挑戰。儘管Palantir與Anthropic曾於2024年透過Palantir合作向國防部提供其AI技術,但兩家公司對於AI應用邊界的看法仍存在差異。這起事件不僅突顯了企業在國家安全與倫理責任之間兩難的處境,也為全球各國在發展軍事AI時,提供了寶貴的借鑒。
從數據來看,美國政府對AI技術的渴求與日俱增,但如何平衡創新、國家安全與基本人權,將是未來幾年最為關鍵的議題。這不僅需要科技公司堅守倫理底線,更需要政府建立透明、公正且符合憲法精神的AI監管框架,以確保AI技術的發展能真正造福人類,而非成為潛在的威脅。