经典动画《玩具总动员》里,有会说话的提线木偶胡迪、太空人玩具巴斯光年、瓷娃娃牧羊女……随着生成式人工智能技术的突破性进展,人们的童年想象正在变为现实,会“说话”的AI玩偶层出不穷。
但当孩子们兴高采烈地与AI玩具互动时,可能正不知不觉地暴露着自己的隐私信息。更令人担忧的是,许多家长对这些潜在风险毫无察觉。
01
销量翻倍!
AI玩具成“带娃新宠”
今年以来,各大电商平台的AI玩具销售火爆。深圳某厂商透露,一场直播就卖出52万元,销量环比翻倍。
AI玩具是将大数据分析、智能算法等技术巧妙融合的成果,其核心是一个经过海量数据训练的“大脑”,搭载先进算法,能快速理解指令、识别面孔,甚至解读简单情绪。有些可以作为家庭教师帮助孩子复习功课;有些像是贴心的朋友,陪伴孩子度过独处时光,培养他们的社交技能。
个性化的教育和娱乐方式,让AI机器人迅速赢得家长青睐,成为新一代“带娃神器”。
某电商平台统计数据显示,AI早教玩具市场呈现爆发式增长,主要面向3至6岁儿童受众创新研发。今年1月,AI技术带动产品销量环比增长达6倍。另有电商平台数据显示,在供给端,已有超百家厂商积极布局相关产品。
方正证券测算称,假设2028年国内AI玩具渗透率达到20%至25%,我国AI玩具市场规模有望达到300亿元至400亿元。
02
内有超广角摄像头
有的默认“同意”隐私协议
能说会道、善解人意的AI玩具并非完美无缺,隐私安全问题同样令人担忧。
一是过度收集个人数据。
有的玩具为了提升产品体验,集成了大量技术模块,如搭载高速网络传输模块,以便调取云端AI大模型算力资源,内置高敏麦克风和超广角摄像头等,数据采集能力甚至强于一些安防监控设备。
孩子的语音和行为信息、家庭对话内容,甚至居住环境等隐私数据,可能在孩子、家长的不经意间被采集上传。
二是数据存储与传输风险。
有些AI玩具会默认勾选“同意数据用于商业研究”的隐私协议,或要求开放家庭WiFi共享权限,这些搜集到的数据,一旦在存储或传输过程中,没有采取有效的加密措施,就容易被不法分子截取,增加数据泄露的风险。
三是内容审核不严格。
部分AI玩具的内容审核机制不够完善,可能会向孩子传递不良信息;还有些恶意软件可能会通过仿冒正规玩具程序,诱导孩子泄露个人信息。
03
重视隐私安全
给AI玩具上把“安全锁”
北京市社会科学院副研究员王鹏在此前接受采访时指出,AI玩具通常通过语音、摄像头、传感器等设备实现交互,这些设备在收集和使用个人信息时,可能引发隐私泄露等安全问题。
为此,玩具制造商应采用先进的数据加密技术,对收集到的儿童个人信息进行加密处理,确保数据在传输和存储过程中的安全。
中关村物联网产业联盟副秘书长袁帅表示,除实施严格的访问权限控制机制,确保只有授权人员或系统才能访问敏感数据外,企业还应提供家长可控的内容过滤功能和使用时间管理功能,帮助家长保护儿童的隐私和安全。
同时,在数据处理上,应遵循“数据最小化”原则,仅收集实现核心功能所必需的信息,并明确其保存期限,实现数据定期自动清理,从源头上杜绝冗余存储带来的泄露风险。
作为消费者,也要提高隐私安全意识。
比如,在购买AI玩具时,应选择正规渠道的产品,仔细阅读产品的隐私协议,了解产品对个人信息的收集、使用和保护方式;
在使用时,关闭不必要的麦克风、摄像头权限,禁用GPS定位功能,定期检查隐私设置并清理交互记录;
更重要的是,要培养孩子的数据安全意识,教会孩子不与玩具讨论家庭隐私,发现异常立即告知家长。
还没有评论,来说两句吧...