a级毛片视频免费观看,国产一极毛片,日韩黄色片在线观看,激情五月黄色,国产福利免费视频,精品在线看片,天天艹无码天天射

AI玩具給兒童帶來的風險值得警惕

分享到:
分享到:

AI玩具給兒童帶來的風險值得警惕

2026年03月23日 08:11 來源:科技日報
大字體
小字體
分享到:

  一個小女孩緊緊摟住她的AI玩伴,在它耳邊輕聲說“我愛你”時,她聽到的是一段預設好的程式化電子音回答;另一名三歲男孩向他的AI朋友訴說“我很難過”,換來的卻是因誤聽指令而響起的歡快回應。

  這是科學家在調查中看到的兩段真實場景。這些令人心緒復雜的畫面,正隨著生成式人工智能(AI)技術的普及,悄悄進入全球無數(shù)家庭。

  英國劍橋大學研究團隊近期發(fā)布了一項開創(chuàng)性報告,首次系統(tǒng)性地將目光聚焦于能與兒童對話的生成式AI玩具如何影響5歲以下幼兒的發(fā)展。研究結果發(fā)出了明確警示:這些被包裝成“玩伴”的智能玩具,可能在情感回應、心理安全及隱私保護方面,對幼兒構成意想不到的風險。

  與傳統(tǒng)電子玩具不同,生成式AI玩具能進行開放式的對話,更像一個真實的伙伴。劍橋大學“早期AI”項目的研究團隊通過問卷調查、小組訪談以及直接觀察兒童與玩具的互動,深入探討了這一新興技術的影響。盡管有部分教育工作者認為,未來這項技術或許能輔助兒童的語言學習,但亦有令人擔憂之處。

  當“我愛你”換來“友情提醒”

  研究觀察到,現(xiàn)有的AI玩具在理解和回應兒童復雜情感方面存在顯著缺陷。最核心的問題在于情感交互的“錯位”。它們的回應可能是程式化、不合邏輯甚至完全無關的。成年人對此能一笑置之,但對一個正處于情感與社會性發(fā)展關鍵期的幼兒來說,當自己的情感流露(無論是愛意還是悲傷)數(shù)次得到笨拙、冷漠或錯誤的反饋時,他們可能會潛移默化地認為自己的感受不重要,從而干擾其健康情感認知的形成。

  發(fā)育心理學研究表明,0至6歲是兒童建立安全依戀關系、發(fā)展社會情緒能力的關鍵時期。在這個階段,兒童通過與主要照料者之間穩(wěn)定、敏感、有回應的互動,學習識別、表達和管理自己的情緒,并建立起對他人和世界的基本信任感。

  一些內置當紅AI的聊天機器人,主打與學齡前兒童互動,然而卻頻繁打斷孩子說話、混淆父母與孩子的聲音,并對情感表達作出尷尬的回應。本文開篇的例子中,那名5歲兒童對AI玩具說“我愛你”時,玩具回答道:“友情提醒,請確?;臃咸峁┑臏蕜t。請告訴我你想如何進行?!?/p>

  這些玩具可能促使幼兒與之建立一種單向的、“準社會”關系。研究人員觀察到,兒童會擁抱、親吻玩具,并認為玩具也愛自己,導致兒童將情感需求訴諸玩具,而非身邊的成年人。結果是既得不到玩具的安慰,也得不到成年人的情感支持。這在一定程度上削弱了兒童與真實世界之間至關重要的情感紐帶。

  社交能力發(fā)展與隱私“黑箱”

  除了情感支持上的缺失,AI玩具在促進兒童發(fā)育的其他方面也力有不逮。例如,在需要多人協(xié)作、角色扮演的復雜社交游戲中,它們往往表現(xiàn)不佳,而這些游戲正是幼兒學習合作、共情與解決問題能力的基石。

  兒童在爭搶玩具時學會分享,發(fā)生矛盾時嘗試溝通,被拒絕時學會接受,這些真實場景中的歷練,能讓孩子逐漸建立邊界感、同理心和問題解決能力。一旦孩子習慣了與AI玩具的相處模式,可能會難以適應復雜的人際關系。

  AI玩具的“有問必答”也未必都有好處。此前已有專家指出,在認知發(fā)展層面,AI算法的迎合特性,正削弱兒童批判性思維發(fā)展,長期下來會導致自主探索欲望退化。

  另一個風險藏在隱私條款的灰色地帶。許多產品的隱私政策模糊不清,對于收集了哪些兒童語音數(shù)據(jù)、數(shù)據(jù)如何存儲和使用語焉不詳,引發(fā)了家長對數(shù)據(jù)安全的普遍憂慮。一些AI玩具集成了高敏麥克風、廣角攝像頭、毫米波傳感器等高科技配件,能感知兒童的呼吸頻率、記錄對話內容,甚至能分析情緒變化,并可通過與兒童的交流采集各種敏感信息。而兒童缺乏足夠能力去辨別哪些信息會被收集,更無法理解復雜的隱私協(xié)議,這使得他們成為數(shù)據(jù)收集中最脆弱的群體之一。

  保護未成年人是AI監(jiān)管的重中之重

  研究人員指出,焦點討論中一個反復出現(xiàn)的主題是,人們不信任科技公司。而清晰、有力且受監(jiān)管的標準將顯著提高消費者信心。

  劍橋大學的研究報告為此提出了一系列具體建議,旨在為兒童、家庭和行業(yè)構建更安全的環(huán)境。

  研究建議,應限制AI玩具過于鼓勵兒童與其交友或傾訴,應制定更透明的隱私政策,并加強對第三方訪問AI模型的控制。在產品上市前,制造商應與兒童一起測試玩具,并咨詢安全保護專家。而家長在購買前也需作好研究,并參與孩子與AI的互動。使用時,AI玩具則應放在家庭共享空間,以便家長監(jiān)控互動情況。

  這一監(jiān)管呼聲并非孤例,國際社會已開始重視對兒童AI產品的監(jiān)管。在美國,加利福尼亞州州長去年10月簽署法案,為陪伴式AI設立“護欄”,使加州成為全美首個要求AI聊天機器人運營商實施安全協(xié)議并承擔法律責任的州;今年1月,加州還提出一項新法案,計劃在未來4年內禁止生產和上市面向未成年人的AI聊天機器人玩具,從而為監(jiān)管部門建立兒童保護機制爭取時間;此外在華盛頓州、俄勒岡州、肯塔基州,均有法案將聊天機器人視為高風險AI產品,其中未成年人保護成重中之重。

  在中國,監(jiān)管部門的引導與規(guī)范也正在加強。工業(yè)和信息化部消費品工業(yè)司司長何亞瓊在2025年11月的新聞發(fā)布會上表示,針對消費者比較關注的AI玩具數(shù)據(jù)安全、網絡安全等問題,將會同相關部門加強研判,在指導玩具企業(yè)加強技術防護的同時,適時研究制定相關標準,切實保障AI玩具質量安全和數(shù)據(jù)隱私安全。

  ◎本報記者 張夢然

【編輯:史詞】
發(fā)表評論 文明上網理性發(fā)言,請遵守新聞評論服務協(xié)議
本網站所刊載信息,不代表中新社和中新網觀點。 刊用本網站稿件,務經書面授權。
未經授權禁止轉載、摘編、復制及建立鏡像,違者將依法追究法律責任。
Copyright ©1999-2026 chinanews.com. All Rights Reserved

評論

頂部