本報特約記者 陳 欣
英國《金融時報》當地時間26日報道稱,隨着公衆對人工智能(AI)技術的擔憂日益加劇,谷歌、微軟、Anthropic和OpenAI這4家人工智能領域最具影響力的公司一起成立了一個新組織“前沿模型論壇”。該論壇將“前沿模型”定義爲能力超過現有最先進模型、能執行各種任務的大規模機器學習模型。
微軟總裁布拉德·史密斯在聯合聲明中表示:“開發人工智能技術的公司有責任確保其安全性,並保障其處於人類控制之下。這項倡議是讓科技行業攜手努力,負責任地推進人工智能,應對挑戰,使全人類受益。”
在谷歌博客網站上,“前沿模型論壇”公佈了4個目標:推進人工智能安全研究,促進前沿模型負責任地發展,最大限度地降低風險,並實現對安全性的獨立、標準化評估;負責任地開發和部署前沿模型,幫助公衆瞭解技術的性質、功能、侷限性和影響;與政策制定者、學者、民間組織和公司合作,及時預警相關風險;支持開發有助於社會應對最大挑戰的軟件,比如緩解氣候變化、早期癌症檢測和預防、應對網絡威脅。
“前沿模型論壇”成立於這些科技公司向美國白宮發表自願承諾之後。美國《華盛頓郵報》26日報道稱,這4家公司21日在華盛頓承諾,將讓專家對它們的系統進行獨立測試,並開發工具幫助公衆更好地識別人工智能生成的圖像和視頻。
美國彭博社稱,最新一代的人工智能模型讓人們看到了這些系統正擁有接近人類的智能,它們的迅猛發展給科技巨頭帶來了必須要謹慎行動的壓力。在美國政府的敦促下,參與“前沿模型論壇”的公司已經制定了一些安全保障措施,美國國會也可能會通過一些約束性的法規,不過目前在美國,對人工智能的監管都是由公司負責。
據《華盛頓郵報》報道,硅谷的科技公司對自我監管並不陌生。社交媒體公司建立了“全球網絡反恐論壇”,共同對抗抵制互聯網上的恐怖主義通過互聯網傳播。臉書母公司Meta成立了一個監督委員會,該公司資助獨立專家機構,負責對棘手內容進行權衡、審覈。
然而,這些由行業主導的自我監管受到消費者權益倡導者的批評。他們認爲,這些舉措不僅將責任轉嫁給第三方專家,還讓這些進行自我監管的公司分散了政策制定者的注意力,導致相關立法一直沒有得到落實。報道稱,由政府主導的監管不會很快出臺,立法正處於早期階段。即使是一直致力於對人工智能監管立法的歐洲,他們的先進提案也需要數年時間才能生效。▲