2015年成立的热门游戏社交平台Discord在2月9日透露将改进未成年人保护功能,计划引入强制年龄验证机制。虽然最初打算在3月启动,但由于用户反馈强烈,平台决定延期,预计在2026年下半年根据实际情况再实施。
此次规则优化的动因,源于近年来平台上涉及未成年人的违规及违法事件持续增多,尤其在10至20岁年龄段用户中,因平台规则适用边界不清而引发的问题日益突出。新规主要面向该年龄段用户设计,旨在强化身份识别与行为管理。
然而,在细则预发布后,多项限制性条款引发大量用户质疑。不少玩家认为部分措施过于严苛,执行逻辑缺乏透明度,削弱了平台长期积累的信任基础。面对广泛意见,运营方表示将充分吸纳社区建议,对规则进行全面复盘与优化,并明确说明:最终落地的措施将确保覆盖范围精准,预计九成以上用户不会因此受到实质性影响。