【環球網科技綜合報道】6月1日消息,據外媒報道,內部文件顯示,Meta 計劃將高達 90% 的應用更新風險評估自動化。
這一轉變意味着,關鍵決策——例如 Meta 算法的更新、新的安全工具以及用戶內容共享方式的變更——將在很大程度上由人工智能系統審批。這些決策將不再像過去那樣需要員工之間就潛在的意外後果或濫用風險進行深入討論。
公司的產品開發人員對此舉表示歡迎,認爲這是一種更快地推出更新和功能的方式。但據報道,Meta 的現任和前任員工警告稱,將這些複雜的決策交給人工智能可能會增加在現實世界中造成危害的可能性。
“如果這一變化實際上意味着產品發佈速度更快,而審查卻不那麼徹底,那麼你就是在招致更大的風險。產品決策的潛在負面影響不太可能在造成實際損害之前被發現,”一位不願透露姓名的前 Meta 高管表示。
Meta 在一份聲明中表示,它已投入數十億美元來保護用戶隱私。據 Meta 前員工和現任員工稱,自 2012 年與聯邦貿易委員會就其數據處理方式達成和解以來,Meta 已被要求對所有新產品進行隱私審查。
該公司表示,風險審查流程的變更旨在提高決策效率,並指出人工判斷仍將應用於“新穎且複雜的問題”,而自動化審查僅限於“低風險”案例。
然而,內部文件表明,Meta 也在尋求在高度敏感的領域實現自動化審查,例如人工智能安全、未成年人面臨的風險。(思瀚)