×
In

事件總覽:美國軍事AI應用近年來爭議不斷,從Palantir執行長釐清國防部AI主要用於境外作戰,到AI開發商Anthropic與川普政府因AI倫理立場衝突,進而演變成供應鏈風險認定與法律訴訟,揭示了軍事科技與倫理界線的複雜角力。

美國軟體巨擘Palantir的執行長亞歷克斯·卡普(Alex Karp)近日明確指出,美國國防部(DoD)在部署人工智慧(AI)產品時,其主要應用場景是鎖定於戰爭背景下的非美國公民,而非在美國境內使用。這番言論在當前AI倫理與軍事應用引發高度關注之際,無疑為這場科技與道德的辯論投下了一枚震撼彈。卡普也補充說明,儘管Palantir與Anthropic在2024年曾有合作,透過Palantir向國防部提供其AI技術,但國防部對AI產品的運用方向,始終未曾包含境內使用。

📅 逾一年前起:Anthropic的AI技術進入美國政府

事實上,AI開發商Anthropic與美國政府的合作早有淵源。據悉,逾一年前起,Anthropic旗下的先進AI模型Claude便已成為美國政府採用的核心AI工具,甚至被傳為首個獲准處理機密資訊的尖端系統。在此之前,Anthropic於去年便已直接與美國國防部建立合作關係,專門為國防部量身打造所需的AI技術。這種深度合作,讓Anthropic在軍事AI領域佔據了重要位置,其AI工具甚至曾於今年一月被報導用於逮捕委內瑞拉總統尼可拉斯·馬杜羅(Nicolás Maduro),足見其在實務應用上的影響力。

📅 AI倫理爭議浮現:Anthropic與五角大廈的僵局

然而,這段合作關係卻在AI倫理的紅線前遭遇瓶頸。Anthropic內部對於其AI模型的應用範圍有著明確的堅持,不願讓Claude模型被用於大規模監控美國公民,或是驅動致命的自主武器。他們認為,目前的尖端AI模型尚未成熟到足以應用於全自主武器,且大規模監控美國公民的行為,無疑是侵犯了公民的基本權利。因此,Anthropic積極尋求五角大廈的保證,確保Claude不會被用於上述目的。不過,五角大廈對此卻抱持不同立場,堅持Claude應可用於「所有合法用途」,雙方因此陷入僵局,這場關於AI倫理與軍事應用界線的爭議,也逐漸浮上檯面。

📅 今年2月27日:川普政府將Anthropic列為「國家風險」

這場僵局最終演變成一場政治風暴。今年2月27日,川普(Donald Trump)政府突然宣布,將Anthropic列為對國家安全構成供應鏈風險的公司。這項舉動在美國業界引起軒然大波,因為這是美國政府首次將一家本土企業認定為「國家風險」,其背後原因被外界解讀為與Anthropic在AI倫理上的堅持有關。此後不久,在一份內部備忘錄遭到洩露後,Anthropic向政府公開道歉。該備忘錄內容批評了OpenAI接受五角大廈的合作協議,而Anthropic則選擇拒絕。Anthropic方面解釋,這份備忘錄是在川普總統透過Truth Social平台宣布將Anthropic從所有聯邦系統中移除、戰爭部長透過X平台宣布供應鏈風險認定,以及五角大廈與OpenAI達成協議等多項消息公布後數小時內撰寫的,顯然是內部對情勢變化的即時反應。

📅 今年3月9日:Anthropic訴諸法律,控告政府報復

面對川普政府的強硬態度,Anthropic選擇了法律途徑捍衛自身權益。今年3月9日,Anthropic正式向美國加州北區聯邦地區法院提起訴訟,控告美國國防部及其他聯邦機構。Anthropic在訴狀中指控川普政府此舉「前所未有且不合法」,並強調美國憲法不允許政府利用其龐大權力,懲罰一家公司因受保護的言論所採取的立場。這場訴訟不僅關乎Anthropic自身的權益,更將美國政府在AI軍事採購與言論自由之間的界線,推向了司法檢視的風口浪尖。

至今影響與未來展望

這起事件不僅凸顯了AI技術快速發展所帶來的倫理挑戰,更揭示了國家安全與企業自主權之間的複雜平衡。Palantir執行長亞歷克斯·卡普的澄清,雖然試圖將美國國防部的AI應用範圍限定在境外作戰,以緩解外界對大規模監控的疑慮,但Anthropic與政府之間的法律戰,無疑將迫使各方重新審視AI在軍事領域的邊界。這場爭議也為其他AI開發商敲響了警鐘,促使他們在與政府機構合作時,必須更審慎地評估其技術的潛在用途與倫理影響。未來,如何在確保國家安全的同時,又能堅守科技倫理與公民權利,將是美國乃至全球各國政府和科技公司必須共同面對的重大課題。

Related Posts

In

臺灣2065年人口恐跌破1200萬!超高齡社會比預期提早來臨的三大衝擊

臺灣的少子化危機比我們想像的更嚴峻。根據國發...

Read out all
In

鴻海每股配7.2元創新高!52.9%配發率背後透露什麼產業訊號?

鴻海營運數字背後的產業密碼 根據鴻海最新財報...

Read out all