【環球網科技綜合報道】6月9日消息,據外媒報道,多個行業組織對英國通信管理局(Ofcom)呼籲,限制 Meta在關鍵風險評估中使用人工智能。英國通信管理局表示,正在“考慮”活動人士提出的擔憂。
據此前報道,Meta 計劃將高達 90% 的應用更新風險評估自動化。對此,多個組織在一封信中將人工智能驅動的風險評估的前景描述爲“倒退且令人高度擔憂的一步”。
英國通訊管理局 (Ofcom) 的一位發言人表示:“我們已經明確表示,服務機構應該告知我們誰完成、審查並批准了他們的風險評估。我們正在考慮這封信中提出的問題,並將在適當的時候做出回應。”
而Meta則表示,這封信故意歪曲了公司的安全方針,該公司致力於高標準並遵守法規。
Meta 的一位發言人表示:“我們並非使用人工智能來做出風險決策。相反,我們的專家構建了一個工具,幫助團隊識別特定產品何時適用法律和政策要求。我們使用由人工監督的技術來提升管理有害內容的能力,我們的技術進步顯著改善了安全結果。”
上個月,外媒報道稱,Meta 的算法更新和新安全功能將主要由人工智能系統批准,不再由工作人員審查。據一位不願透露姓名的 Meta 前高管透露,這一變化將使公司能夠更快地在 Facebook、Instagram和 WhatsApp 上推出應用更新和功能,但也會給用戶帶來“更高的風險”,因爲在新產品向公衆發佈之前,潛在問題不太可能得到預防。(思瀚)