【環球網科技綜合報道】在人工智能技術的快速發展下,生成的圖像越來越逼真,使得真實與虛假的界限逐漸模糊。爲了應對這一問題,行業領軍企業OpenAI近日推出了一款新工具,旨在鑑別由其自家DALL-E 3生成器所創建的圖像。然而,測試結果顯示,該工具在實際應用中效果喜憂參半。

OpenAI表示,他們新推出的工具能夠在98%的情況下準確檢測出由DALL-3生成的圖片,這無疑是一個令人鼓舞的結果。然而,該工具在鑑別其他人工智能模型製作的圖像時,成功率卻大幅下降,僅在5%至10%之間。這意味着,對於非DALL-E 3生成的AI圖像,該工具的鑑別能力相當有限。

此外,當圖像經過修改後,該工具的鑑別能力也會受到影響。對於諸如裁剪、壓縮和飽和度變化等微小修改,工具的成功率雖然有所下降,但仍保持在95%至97%的可接受範圍內。然而,當圖像經過色調調整後,成功率驟降至82%。對於經歷更廣泛變化的圖像,該工具在分類時更是遇到了明顯的困難,OpenAI甚至未公佈這些情況下的成功率。
這一侷限性在選舉年尤爲引人關注。由於選舉過程中可能會出現大量經過修改的AI生成圖像,以激怒或誤導公衆,因此該工具的鑑別能力在實際應用中顯得尤爲重要。然而,從目前的測試結果來看,該工具可能無法有效識別出經過修改的、具有誤導性的AI生成圖像。
值得肯定的是,OpenAI對其檢測技術的侷限性保持透明態度,並允許外部測試人員訪問該工具以幫助改進。同時,該公司還與微軟等合作伙伴共同致力於擴大人工智能教育和素養的提升。
然而,隨着人工智能技術的不斷髮展,我們仍需要更加完善和高效的工具來鑑別AI生成圖像,以確保信息的真實性和可靠性。在當前選舉背景下,這一問題顯得尤爲重要和迫切。