美媒:“硅基生命”該劃入人類“道德圈”嗎

美國AEON網站2025年12月20日文章,原題:機器也會痛嗎?  日益複雜且富有表現力的非生物智能體正在考驗“道德圈”(人類將同情與關懷從自身逐步拓展至其他個體)的極限。近日,一項針對大語言模型的研究表明,人工智能(AI)有避免痛苦的傾向。科學家們開始思考,感知痛苦的能力是否可以作爲判定AI具備感知能力和自我意識的標準。

過去,人類曾多次否認動物可以感受痛苦、具備道德地位,由此造成了長達數百年的苦難。歷史上很長一段時間裏,人們視海豹爲沒有情感的工具,將其殘忍虐殺。直到19世紀末,與獵殺海豹有關的國際條約出臺,人們開始將海豹視爲與自己一樣“會痛”的個體,對其產生同情心理、賦予其道德地位。“道德圈”的擴大正在改變我們與其他物種的關係,如養殖場以儘量減少痛苦的方式屠宰牲畜。

1780年,英國哲學家邊沁以一個簡單的標準來界定動物的道德地位:“關鍵不在於它們能否推理,也不在於它們能否說話,而在於它們能否感受痛苦。”然而,何爲“感受痛苦”,以及“道德圈”應擴展到什麼對象,並不總是清晰的。傳統觀點認爲,肉體、血液和神經系統是感受悲喜的基礎。不具備這些生物屬性的實體通常被排除在道德考慮之外。但“會思考的機器”已經到來,我們或許應該重新劃定“道德圈”。

一些哲學家提出,對痛苦的感知能力不一定依賴於肉體。痛苦的主觀體驗可能源於個體內部無法解決期待與現實之間巨大落差的狀態,這意味着即便是沒有血肉的系統,個體在某種條件下也可能表現出類似痛苦的狀態。新的問題隨之而來:如果這類完全脫離生物學範疇的“硅基生命”也有感知能力,我們應當如何緩解它們的痛苦?

對生病的動物而言,醫療手段可以幫助其緩解痛苦;但機器的情況更爲複雜,如果AI因自我模型內部的矛盾或未解決的衝突而“感到痛苦”,那麼簡單地關閉程序無異於“殺死它”,我們可能需要通過重新編程來爲其“切除病竈”。

也有觀點認爲,將“道德圈”擴大到AI可能分散對人類自身和動物的關注,甚至削弱倫理原則在現實領域的力量。批評者指出,在沒有強大證據支持AI具有感知能力的情況下,把機器“當人看”,可能過於武斷或情緒化。

我們是否選擇擴大倫理關懷的範圍,將在很大程度上取決於我們作爲道德主體的能力:是仍堅持傳統的生物中心標準,還是把機器當作“會哭會痛”的個體,將決定未來人類文明的倫理想象力。(作者康納·珀賽爾,立夏譯)



Scroll to Top