欧盟指控“上瘾”,TikTok回怼欧盟“毫无依据”
2026年2月6日,欧盟委员会(EC)正式向TikTok发出了一份长达数百页的初步调查结论。欧盟在报告中明确指出,TikTok的产品机制中包含多个具有“上瘾诱导性”的设计,可能导致用户,特别是未成年群体,产生过度依赖和强迫性使用行为。
这份初步结论在法律性质上属于“异议声明(Statement of Objections)”。根据欧盟的行政执法流程,这并非最终裁决。TikTok可以查阅委员会收集的证据案卷,提交详细的书面答复,并申请举行听证会。欧盟委员会再决定是否作出最终不合规决定、是否接受具有约束力的整改承诺,以及是否处以处罚。
具体看,欧盟委员会的指控主要集中在四个相互关联的领域。
首先是平台成瘾性机制设计。委员会指出,TikTok广泛应用的“无限滚动”、“自动播放”以及高度精准的算法推荐,营造了一种“无限奖励循环”,这种设计使用户在无意识中进入一种持续刷屏的心理状态。委员会认为,这种设计削弱了用户(尤其未成年)的自我控制力,在没有外部干预的情况下,用户很难主动中断使用。
其次,指控未充分评估身心健康影响。根据DSA规定,超大型在线平台(VLOPs)负有评估其服务对社会产生的系统性风险的法定义务。欧盟认为,TikTok在之前的自查报告中,未能充分衡量其设计对用户心理健康的潜在负面影响。特别是,TikTok在风险建模中忽视了关键的量化指标,如用户在深夜的使用时长、打开应用的频率以及单次使用的平均长度。
第三,未采取有效风险缓解措施。虽然TikTok已推出了一系列防沉迷工具(如每日屏幕限时提示),但欧盟监管机构在经过技术审计后认为,这些工具在实际操作中力度有限且存在“设计阻碍”。例如,调查发现家长控制功能的设置流程较为复杂,且默认设置未能最大程度保护未成年人。此外,屏幕使用时间的提示易于被用户一键忽略,委员会认为这种“软约束”不足以抵消算法推送带来的强烈吸引力,不符合DSA要求的“相称且有效”的风险缓解标准。
最后,是违反DSA的责任规定。DSA要求平台在推出任何具有重大影响的新功能前,必须进行前置性的合规审计。欧盟指控TikTok在过去几年中,多次在未完成完整风险评估的情况下,就向欧盟市场推出了可能具有成瘾风险的算法优化方案。
面对上述指控,TikTok官方迅速作出了回应,其立场表现出坚定的法律和事实层面的抗辩。TikTok发言人表示,欧盟委员会的初步调查结果对平台的描述“完全错误且毫无依据”,并称将“采取一切必要措施”对调查结论提出异议。
在具体措施上,TikTok强调自己早已在青少年保护领域投入了巨额资源。例如,平台采取了严格的年龄限制措施,禁止13岁以下儿童使用,并为13至17岁的青少年设置了自动的默认隐私账户和内容过滤器。TikTok认为,其提供的“屏幕时间仪表盘”和“家长陪同模式”已经是行业内最为先进和透明的工具之一。平台主张,任何技术工具的有效性都需要用户和监护人的共同协作,监管机构不应将所有的社会心理责任单一地强加于技术服务提供者身上。
此外,TikTok还提出了“行业共性”的论点。无限滚动和个性化推荐目前已成为移动互联网产品的标准配置,并非TikTok一家独有。平台表示,将继续与心理学专家和行业协会合作,致力于在保障用户体验与保护身心健康之间寻找平衡。TikTok表示,期待在接下来的法定程序中,向欧盟委员会提供更详尽的数据和证据,以证明其算法逻辑的科学性与合规性。
这次初步结论的发布,是欧盟自2023年以来对数字平台实施全方位监管的延续。2023年8月,TikTok被正式指定为超大型在线平台,这意味着它必须遵守DSA最严格的条款。2024年2月,欧盟正式启动了针对TikTok的违规调查,重点审查未成年人保护和算法透明度。
期间的关键节点是,2024年4月,TikTok在法国和西班牙推出了该版本的奖励计划,用户通过刷视频可以获得积分并兑换礼品卡。欧盟委员会迅速介入,认为这种奖励机制可能直接刺激成瘾行为。在压力下,TikTok在24小时内主动暂停了该计划。这一事件也为2026年的这份初步结论埋下了伏笔。
如果欧盟委员会在听取TikTok的答辩后,依然维持其不合规的裁定,TikTok将面临前所未有的法律制裁。根据DSA的规定,欧盟最高可处以企业全球年营业额6%的罚款。以字节跳动目前的营收规模估算,这笔罚金可能高达数十亿美元。除此之外,欧盟还有权要求TikTok对产品底层逻辑进行强制性整改,如果整改不到位,还可以采取按日计罚的周期性处罚措施。
然而,行政裁决并非终点。根据欧盟法律体系,TikTok在收到最终不合规决定后,有权向卢森堡的欧洲法院(CJEU)提起诉讼。
事实上,除了TikTok,Meta(包括Facebook和Instagram)、X(原Twitter)以及YouTube也都在接受类似的审查。例如,欧盟也在关注Instagram对未成年人心理健康的潜在损害,以及YouTube的推荐算法是否会将用户引向有害内容的“兔子洞”。
这也意味着,所有采用高度个性化推荐机制的平台,未来都必须增加算法的透明度,甚至可能被要求提供一个“非算法推荐”的选项供用户选择。
