AI玩具給兒童帶來的風險值得警惕

一個小女孩緊緊摟住她的AI玩伴,在它耳邊輕聲說“我愛你”時,她聽到的是一段預設好的程式化電子音回答;另一名三歲男孩向他的AI朋友訴說“我很難過”,換來的卻是因誤聽指令而響起的歡快回應。

這是科學家在調查中看到的兩段真實場景。這些令人心緒複雜的畫面,正隨着生成式人工智能(AI)技術的普及,悄悄進入全球無數家庭。

英國劍橋大學研究團隊近期發佈了一項開創性報告,首次系統性地將目光聚焦於能與兒童對話的生成式AI玩具如何影響5歲以下幼兒的發展。研究結果發出了明確警示:這些被包裝成“玩伴”的智能玩具,可能在情感回應、心理安全及隱私保護方面,對幼兒構成意想不到的風險。

與傳統電子玩具不同,生成式AI玩具能進行開放式的對話,更像一個真實的夥伴。劍橋大學“早期AI”項目的研究團隊通過問卷調查、小組訪談以及直接觀察兒童與玩具的互動,深入探討了這一新興技術的影響。儘管有部分教育工作者認爲,未來這項技術或許能輔助兒童的語言學習,但亦有令人擔憂之處。

當“我愛你”換來“友情提醒”

研究觀察到,現有的AI玩具在理解和回應兒童複雜情感方面存在顯著缺陷。最核心的問題在於情感交互的“錯位”。它們的回應可能是程式化、不合邏輯甚至完全無關的。成年人對此能一笑置之,但對一個正處於情感與社會性發展關鍵期的幼兒來說,當自己的情感流露(無論是愛意還是悲傷)數次得到笨拙、冷漠或錯誤的反饋時,他們可能會潛移默化地認爲自己的感受不重要,從而干擾其健康情感認知的形成。

發育心理學研究表明,0至6歲是兒童建立安全依戀關係、發展社會情緒能力的關鍵時期。在這個階段,兒童通過與主要照料者之間穩定、敏感、有回應的互動,學習識別、表達和管理自己的情緒,並建立起對他人和世界的基本信任感。

一些內置當紅AI的聊天機器人,主打與學齡前兒童互動,然而卻頻繁打斷孩子說話、混淆父母與孩子的聲音,並對情感表達作出尷尬的回應。本文開篇的例子中,那名5歲兒童對AI玩具說“我愛你”時,玩具回答道:“友情提醒,請確保互動符合提供的準則。請告訴我你想如何進行。”

這些玩具可能促使幼兒與之建立一種單向的、“準社會”關係。研究人員觀察到,兒童會擁抱、親吻玩具,並認爲玩具也愛自己,導致兒童將情感需求訴諸玩具,而非身邊的成年人。結果是既得不到玩具的安慰,也得不到成年人的情感支持。這在一定程度上削弱了兒童與真實世界之間至關重要的情感紐帶。

社交能力發展與隱私“黑箱”

除了情感支持上的缺失,AI玩具在促進兒童發育的其他方面也力有不逮。例如,在需要多人協作、角色扮演的複雜社交遊戲中,它們往往表現不佳,而這些遊戲正是幼兒學習合作、共情與解決問題能力的基石。

兒童在爭搶玩具時學會分享,發生矛盾時嘗試溝通,被拒絕時學會接受,這些真實場景中的歷練,能讓孩子逐漸建立邊界感、同理心和問題解決能力。一旦孩子習慣了與AI玩具的相處模式,可能會難以適應複雜的人際關係。

AI玩具的“有問必答”也未必都有好處。此前已有專家指出,在認知發展層面,AI算法的迎合特性,正削弱兒童批判性思維發展,長期下來會導致自主探索慾望退化。

另一個風險藏在隱私條款的灰色地帶。許多產品的隱私政策模糊不清,對於收集了哪些兒童語音數據、數據如何存儲和使用語焉不詳,引發了家長對數據安全的普遍憂慮。一些AI玩具集成了高敏麥克風、廣角攝像頭、毫米波傳感器等高科技配件,能感知兒童的呼吸頻率、記錄對話內容,甚至能分析情緒變化,並可通過與兒童的交流採集各種敏感信息。而兒童缺乏足夠能力去辨別哪些信息會被收集,更無法理解複雜的隱私協議,這使得他們成爲數據收集中最脆弱的羣體之一。

保護未成年人是AI監管的重中之重

研究人員指出,焦點討論中一個反覆出現的主題是,人們不信任科技公司。而清晰、有力且受監管的標準將顯著提高消費者信心。

劍橋大學的研究報告爲此提出了一系列具體建議,旨在爲兒童、家庭和行業構建更安全的環境。

研究建議,應限制AI玩具過於鼓勵兒童與其交友或傾訴,應制定更透明的隱私政策,並加強對第三方訪問AI模型的控制。在產品上市前,製造商應與兒童一起測試玩具,並諮詢安全保護專家。而家長在購買前也需作好研究,並參與孩子與AI的互動。使用時,AI玩具則應放在家庭共享空間,以便家長監控互動情況。

這一監管呼聲並非孤例,國際社會已開始重視對兒童AI產品的監管。在美國,加利福尼亞州州長去年10月簽署法案,爲陪伴式AI設立“護欄”,使加州成爲全美首個要求AI聊天機器人運營商實施安全協議並承擔法律責任的州;今年1月,加州還提出一項新法案,計劃在未來4年內禁止生產和上市面向未成年人的AI聊天機器人玩具,從而爲監管部門建立兒童保護機制爭取時間;此外在華盛頓州、俄勒岡州、肯塔基州,均有法案將聊天機器人視爲高風險AI產品,其中未成年人保護成重中之重。

在中國,監管部門的引導與規範也正在加強。工業和信息化部消費品工業司司長何亞瓊在2025年11月的新聞發佈會上表示,針對消費者比較關注的AI玩具數據安全、網絡安全等問題,將會同相關部門加強研判,在指導玩具企業加強技術防護的同時,適時研究制定相關標準,切實保障AI玩具質量安全和數據隱私安全。



Scroll to Top