【環球時報報道 記者 楊舒宇】隨着全球局勢動盪、戰爭頻發,人工智能(AI)在軍事領域的應用邊界成爲熱議話題。在美國,AI企業與軍方在模型使用權限以及監管範圍上的衝突正愈演愈烈。據英國《金融時報》報道,美國初創AI企業Anthropic公司日前表示將就五角大樓將其列爲“供應鏈風險”的決定提起訴訟。
上週五,美國總統特朗普下令美國政府停止使用人工智能公司 Anthropic的產品,五角大樓隨即宣佈該公司構成國家安全風險。據美國《對話》雜誌報道,雙方衝突起源於Anthropic對“護欄”機制的堅持。今年1月,五角大樓突然提出要求,讓Anthropic移除其模型Claude中兩項安全限制:一項是禁止用於美國國內大規模監控,另一項是禁止用於全自主致命性武器。這些限制一旦取消,系統就可以在無人干預的情況下選擇和攻擊目標。而面對軍方上述要求,Anthropic直到國防部在2月下旬發出最後通牒也沒有鬆口。
據英國《衛報》報道,事實上雙方矛盾在“強抓馬杜羅”行動後就已激化。在強抓馬杜羅行動之後,Anthropic提出抗議,表示其使用條款明確禁止將Claude用於暴力目的、開發武器或進行監視。也是自那以後,美國總統、五角大樓與這家人工智能公司之間的關係持續惡化。在無法與Anthropic達成協議後,美國國防部上週與美國企業OpenAI達成一項框架協議。
然而就在特朗普宣佈“拉黑”Anthropic後不久,據英國《衛報》報道,在上週六開始的美以對伊朗的大規模聯合轟炸中,美國軍方還是利用了該公司的人工智能模型Claude來制訂對伊朗的攻擊計劃。
這一事件的發生也直接引爆有關“AI在戰爭中使用權限”的討論。據《衛報》報道,專家們表示,人工智能的打擊速度將超過“思維速度”,但與此同時,人類決策者可能會被邊緣化。倫敦瑪麗女王大學倫理、技術與社會學教授大衛·萊斯利警告,對AI依賴可能會導致“認知能力下降”,負責做出攻擊決定的人可能會覺得後果與預期相偏離,因爲思考過程是由機器完成的。Anthropic的首席執行官達里奧·阿莫迪直言,“事實上,某些對人工智能的應用設想,已完全超出了當前技術所能安全、可靠執行的邊界。”
值得關注的是,就在Anthropic與五角大樓的爭端發酵之時,其大模型Claude在蘋果應用商店的下載排名躍居榜首。美國《商業內幕》網站稱,這場有關AI使用的爭議,可能會重洗人工智能公司的競爭格局。