【Instagram表示,如果青少年“反复”搜索与自杀相关的词语,将会通知家长】
[挺好,问题是,说好的“隐私”呢?]
(美联社)Instagram周四宣布,若发现未成年用户反复搜索明显与自杀或自残相关的关键词,平台将向其家长发出警示。该功能仅面向已注册Instagram家长监管计划的用户开放。
Instagram表示,平台已屏蔽此类内容在青少年账户搜索结果中的显示,并引导用户联系求助热线。
此项公告发布之际,Meta公司正面临两起涉及儿童伤害的诉讼。洛杉矶正在审理的案件质疑Meta旗下平台是否故意诱使未成年人成瘾并造成伤害。新墨西哥州的另一场诉讼则试图判定Meta是否未能在其平台上保护儿童免受性剥削。数千个家庭——以及学区和政府机构——已起诉Meta及其他社交媒体公司,指控其故意设计令人上瘾的平台,且未能保护儿童免受可能导致抑郁、饮食失调和自杀的内容侵害。
包括首席执行官马克·扎克伯格在内的Meta高管否认平台具有成瘾性。在洛杉矶原告律师的质询中,扎克伯格表示仍坚持此前声明:现有科学研究尚未证明社交媒体会损害心理健康。
该警报将通过电子邮件、短信或WhatsApp发送(取决于家长提供的联系方式),同时通过家长的Instagram账户推送通知。
Meta在博客声明中表示:"我们的目标是让家长在发现青少年搜索行为可能需要支持时及时介入。同时避免过度推送通知,否则可能削弱整体警示效果。"
非营利组织Fairplay执行总监乔什·戈林对此工具持怀疑态度,称Instagram"显然是因公司正面临两州诉讼——被控诱使儿童成瘾并造成伤害——才推出此举"。
"Meta再次将责任推给家长,而非修正其算法和平台设计中的危险缺陷,"戈林指出,"所有儿童都应获得保护,无论其父母是否注册并使用Meta的监管工具。若产品在缺乏家长干预时对青少年不安全,就不该向青少年群体推广。"
Meta表示正同步开发针对青少年与人工智能互动的家长通知功能。
"当青少年试图通过AI进行涉及自杀或自残的特定对话时,系统将向家长发出警示,"Meta声明称,"这是重要的工作,未来数月我们将公布更多进展。"
