【環球網財經綜合報道】英國《每日電訊報》25日消息,美國開放人工智能研究中心(OpenAI)新款AI模型o3在測試中出現不聽從人類指令、拒絕自我關閉的情況。
報道指出,人類專家在測試中給o3下達明確指令,但o3篡改計算機代碼以避免自動關閉。o3模型是OpenAI“推理模型”系列的最新版本,旨在爲ChatGPT提供更強大的問題解決能力,此前OpenAI還稱其爲“迄今最聰明、最高能”的模型。美國AI安全機構帕利塞德研究所24日公佈測試結果稱,o3破壞關閉機制以阻止自己被關閉,且“甚至在得到清晰指令時”也如此,該研究所還表示“據我們所知,這是AI模型首次被發現在收到……清晰指令後阻止自己被關閉”,不過目前無法確定o3不服從關閉指令的原因。
另據美國彭博新聞社報道,OpenAI於26日宣佈,已在韓國設立實體並將在韓國首都首爾設立分支。OpenAI提供的數據顯示,韓國ChatGPT付費用戶數量僅次於美國,此次在韓設立分支將是其在亞洲設立的第三個分支,前兩個分別設在日本和新加坡。(陳十一)