一位高考生的哥哥梁某在查詢高校信息後,發現AI平臺生成的信息存在錯誤,AI則表示,內容有誤將賠償10萬元。一氣之下,梁某將AI平臺的研發公司告上法庭。近日,杭州互聯網法院作出一審判決,駁回訴訟請求。法院爲什麼會這麼判?看似聰明的人工智能,爲何會產生“幻覺”?怎樣爲生成式人工智能服務釐清責任的邊界?《新聞1+1》帶來分析解讀。
《新聞1+1》完整版
爲何提供AI服務的公司不需要負責?
全國首例AI“幻覺”侵權案一審結束,法院的判決結果中說,AI不是一個民事主體,所以它不能作出意思表示。AI它不是人,所以它自己不能負責,那爲什麼提供AI服務的公司本身也不負責呢?
全國首例AI“幻覺”案主審法官 杭州互聯網法院一級法官 肖芄:AI生成的內容不準確有很多原因,其中最根本的原因是AI模型在訓練的過程中,教會了它預測概率,而不是教會它理解事實。因此,生成內容不準確,在當前的技術情況下具有不可避免性。但也不代表服務提供者就可以免責。如果服務提供者盡到了法律規定的注意義務、社會交往過程中的注意義務、合同約定的注意義務後,生成的信息仍然不準確,通常還是不能認定服務提供者存在過錯。
AI不具有民事主體資格,這在民法典中有明確的規定。但是AI生成的內容是不是可視爲服務提供者的意思,這個需要分情況討論。在本案的諮詢問答場景中,我們認爲不能視爲服務提供者的意思。
這起案子審理的難點是什麼?
回過頭來看這起案子的整個審理過程,因爲它是我們國家的首例有關AI“幻覺”的判例,在審理案件的過程中,最有挑戰的地方在哪裏?
肖芄:我個人覺得,最難的點在於AI科技創新和產業發展與當事人合法權益之間的平衡。通過在AI侵權責任案件中適用一般侵權責任原則,也就是過錯責任原則,更好地爲AI的服務提供者提供明確的邊界標準,使他們能夠在一個相對明確的標準中更好地創造和應用AI。
AI“幻覺”產生的原因是什麼?
在普通人的認知裏面,AI是一個更高級的大腦,它懂得更多、算得更快,而且可能會更加聰明,不生病也沒有情緒,更加穩定。但爲什麼會有AI“幻覺”,它產生的原因是什麼?
中國社會科學院大學互聯網法治研究中心主任 劉曉春:AI“幻覺”,一方面,現在生成式人工智能基礎的技術原理、技術規律,導致它是一個預測式的,而不是像人腦一樣去理解的過程。另外,也跟AI訓練過程有關,比如數據優化訓練的過程,比如AI是“討好型人格”,實際上AI會希望更好地爲用戶解答問題,這時它可能發揮想象空間,產生了一些“幻覺”。
如何平衡創新和保護公衆權益之間的關係
未來,從監管的角度來看,怎麼來鼓勵創新和保護公衆的權益,在風險防控和促進發展之間去做好平衡?
劉曉春:首先,這個案例給出的底線,或者說基礎的規則還是蠻好的,我們並不要求產業界給到一個百分之百沒有“幻覺”的交付標準。產業是可以在這個基礎之上更好地放開手腳發展。
另一方面,比如這個案例提到的是一個並不存在高風險的場景,也就是說,用戶用完可能有一些不準確的信息,但是有辦法通過其他的驗證手段去避免。所以在這種情況之下,不屬於高風險,也不屬於嚴格的產品責任。實際上,在法律或者監管的過程當中,可能有一些場景,比如說像關係到人民生命健康的,或者關係到財產安全的,像醫療健康、金融投資,包括法律領域,其實希望人工智能能夠給出更加準確的、容錯率更低的回答。
在這些應用過程當中,法律實際上可以去區別基礎模型和模型應用兩個場景。基礎模型,比如案子當中涉及的,可以更快地往前去跑一跑,不用承擔那麼重的責任。但是如果有應用方把人工智能的工具,比如應用到比較嚴格、高風險場景的時候,這個時候可能需要法律能夠去給它更清晰的標準,比如說特定行業的技術標準,來預防高風險的,或者說給人民羣衆造成更大意義上的損失。
從法律角度 如何提前化解AI“幻覺”風險
像AI“幻覺”會是AI技術在狂飆突進當中的一個階段性的產物,還是說會始終伴隨AI技術的發展,是一個無法去改變和完全消除的技術缺陷?未來假如是第二種情況的話,那從法律的角度上,怎麼樣更好地去界定這個權責,能夠提前去化解風險?
劉曉春:在技術的原理上看,如果技術基礎的模型沒有產生本質性變化的話,AI“幻覺”有可能會伴隨着人工智能產業一直髮展。也不是說不能完全消除,只是說如果要降低“幻覺”,也是要付出相應的成本。可能整個產業需要在某些領域投入更多的成本,去限制或者降低AI“幻覺”。
在法律上其實很重要的是識別出一些隨着產業的發展,能看到的一些跟老百姓的生命安全、財產安全等根本利益相關的領域,識別出這些高風險的領域。然後針對高風險,要求產業去投入更多的資本,針對性地去降低“幻覺”。同時包括產業也需要去進行一些提示,特別在一些比較敏感的,比如大家進行情感陪伴,或者把自己很多基礎的信賴放在AI上,這個時候是需要建立更清楚的責任的邊界,使得產業能夠去更好地降低“幻覺”帶來的損害。