欧盟最近对TikTok发布了一个初步调查结果。他们说TikTok的设计,有点让人“上瘾”。其实不只是TikTok,欧盟在2024年5月也调查过Meta的Instagram。他们也提到了类似的问题,比如“上瘾式设计”和“兔子洞效应”。但是,Instagram那边还没给出明确结论。
我们今天就来聊聊这事儿,看看欧盟到底是怎么想的,以及这背后有什么规则。

法律基础:大平台要担最大的责任
《欧盟数字服务法案》,我们简称DSA,在2024年2月已经全面实施了。这个法案专门管那些超大的在线平台,比如TikTok。这些平台有个专门的名字,叫“超大型在线平台”(VLOPs)。它们要承担最高的合规责任。
这最高责任是什么呢?就是它们必须一直去发现、评估和减轻系统性的风险。意思就是,平台要一直检查自己的服务。看有没有什么设计,可能对用户造成不好的影响。
这次欧盟委员会为什么说TikTok有问题,主要是依据了DSA的两条规定:
1. 第34条(风险评估): 这条规定要求,VLOPs要定期检查自己的服务。它们得看看自己的传播方式、算法推荐、界面设计、内容审核,这些地方有没有可能带来大问题。比如说,会不会伤害到未成年人的身心健康。平台必须主动找到这些风险。
这是它的工作原理: 平台不是等着出事。它要像一个医生,定期给自己的服务做体检。医生会检查你身体的每个部分,看有没有潜在的毛病。平台也要检查它的每个功能。比如,它要问自己:我的推荐算法,是不是老让用户看一类内容?这会不会让他们变得偏激?我的滚动方式,是不是让用户一直刷,停不下来?这会不会影响他们的睡眠?这些问题,平台都得认真想清楚,并且找到答案。
2. 第35条(风险缓解): 这条规定说,一旦平台找到了这些风险,就必须采取“合适、有效、成比例”的办法来解决。而且,平台还得证明,这些办法在实际使用中是“真有用”的。不是说你做个样子就行。
这是它的工作原理: 平台找到了风险,不能只是口头说说要解决。它要拿出具体的行动。比如,如果发现某个设计让人沉迷,它就要修改这个设计。修改完了,还得收集数据,证明用户真的没那么沉迷了。这个证明非常重要。欧盟可不会听你讲故事。它要看数据和实际效果。
如果平台不遵守这些规定怎么办?DSA说了,欧盟委员会有权处罚。最高罚款能达到平台上一财年全球总收入的6%。对于TikTok这样的公司,这个数字是几十亿欧元。想想看,这可不是一笔小钱。它会给公司带来巨大的经济压力。而且,这也会让公司的名声受损。所以,这个罚款的威慑力是非常大的。
欧盟对TikTok的最新指控:三点不满意
欧盟委员会在2026年2月6日公布了对TikTok的初步调查结果。他们主要指出了三点问题:
第一,算法和设计让人“自动驾驶”。
欧盟认为,TikTok的设计让你很难停下来。比如:
- 无限滚动: 你的手指一划,视频就一直出来,好像永远都刷不完。
- 自动播放: 一个视频还没看完,下一个就自动开始了。你根本不用动手。
- 高度个性化推荐: TikTok很懂你,它知道你喜欢什么,然后就一直给你推你喜欢看的内容。
这些功能加在一起,让你就像在“自动驾驶”一样。你不用怎么思考,也不用主动去选,视频就一直来了。欧盟觉得,这种设计让你失去了主动控制的能力。它让你更容易一直看下去,停不下来。
举个例子: 就像你本来想看十分钟视频就睡觉。但是,TikTok一直给你推送有趣的猫咪视频。你刷了一个,下一个又来了,而且都是你爱看的。你根本不用思考要不要点下一个,因为它们都自动出现了。等到你回过神来,可能已经刷了两个小时,凌晨两点了。
欧盟以前调查Instagram的时候,也提过类似的问题。他们说Instagram的无限滚动设计,也在促使用户一直刷,让人产生依赖。所以,这次对TikTok的指控,和上次对Meta的看法是一致的。
第二,对“强迫性使用”风险评估不够。
欧盟说,TikTok没有充分关注一些很重要的风险信号。这些信号可能意味着用户,尤其是未成年人,已经开始“强迫性使用”TikTok了。
具体的信号有:
- 未成年人在深夜还非常活跃: 孩子明明该睡觉了,但是还在刷TikTok。
- 用户非常频繁地打开应用: 刚把TikTok关掉,没过一会儿又忍不住打开了。而且,这种行为反复发生。
欧盟认为,这些都是可能导致心理健康问题的信号。平台应该把这些行为当作重要的指标来评估。但是,调查发现TikTok在这方面做得不够。
举个例子: 如果一个14岁的孩子,每天晚上12点后还在TikTok上刷两三个小时的视频。或者,他平均每五分钟就要打开一次TikTok,即使只是看一小段视频。这些行为,在欧盟看来,就应该引起平台的注意。平台需要评估,这会不会对孩子的健康造成影响。但是,TikTok似乎没有把这些数据放在重要的位置来分析。
第三,现有的保护措施效果有限。
TikTok当然也提供了一些保护措施,比如:
- 60分钟使用提醒: 你刷了60分钟后,会弹出一个提醒。
- 家长控制工具: 家长可以设置孩子使用TikTok的时间等。
但是,欧盟委员会认为,这些措施不够有效。他们说,这些工具“太容易被绕过”了,或者“使用起来太麻烦”。所以,它们并不能真正帮助用户减轻沉迷风险。这就不符合DSA第35条要求的“有效性”标准。
举个例子: 那个60分钟的提醒,你是不是经常一看到就直接点“我知道了”或者“继续观看”?它对你中断刷屏的行为,影响很小。还有家长控制。很多家长可能不知道怎么设置,或者觉得太麻烦,就没有去用。结果就是,这些工具虽然有,但并没有真正起到作用。它们没能有效解决问题。
对此,TikTok已经回应了。他们说欧盟的指控在事实和法律上都有误导。他们会依法进行申辩。但是,这次欧盟的立场很明确,他们要看到真正的改变。
欧盟监管逻辑的改变:不再只看内容,也要看设计
这次的调查,标志着欧盟数字监管思维的一个大转变。他们不再只关注内容是否合法,而是更早地,去看平台的设计本身。
1. 监管重点变了:设计也要合规。
以前,欧盟主要看你有没有非法内容,或者内容有没有及时下架。现在,他们把目光放到了平台更底层的东西上:算法和界面设计是怎么影响用户行为的。
欧盟这次并没有直接说,TikTok某个功能必须下线。但是,他们发出了一个明确的信号:如果一个核心设计被认定是“系统性风险”的来源,而且平台又拿不出有效的缓解措施,那么监管机构就有权要求平台“彻底修改”这个设计。
这很重要。这意味着,像“无限滚动”这种让你停不下来的功能,现在也被纳入了合规审查的范围。以前,可能大家觉得这是个“创新”或者“用户体验好”。现在,它可能成为一个合规问题。平台不能再随便设计了。它的设计必须考虑到对用户的潜在影响。
2. “暗黑模式”也被盯上了。
欧盟在这次调查中,还把一些“暗黑模式”的设计也拿出来审查了。什么是“暗黑模式”?
这是它的工作原理: 有些界面设计,会悄悄地引导你。比如,它可能让你很难找到取消订阅的按钮,或者默认给你勾选了一些你不想要的服务。这些设计会让你在不知不觉中,做出平台想让你做出的选择,而不是你真正想做的选择。它们可能通过界面引导、默认选项,或者一些心理暗示来达到目的。
欧盟认为,这些“暗黑模式”不只是让用户体验不好。它们可能侵犯用户的自主选择权。而且,它们还会影响用户的心理健康。尤其是对未成年人来说,这种风险更大。因为孩子们的判断力还不够成熟,更容易被这些设计操纵。所以,这种设计现在也被认为是合规的风险。
3. “预防性合规”和“证明责任”。
这次的案件还强调了DSA的一个重要特点:预防性合规。平台不能等出事了才来补救。它必须持续地向监管机构证明:我修改了算法,调整了设计,这些改变在实际使用中真的能降低风险。
这是它的工作原理: 以前,平台可能只要说:“我提供了休息提醒功能。”就算合规了。现在不一样了。欧盟会问:“你这个提醒功能,真的让用户减少了使用时间吗?有没有数据证明?”
所以,合规的标准更高了。平台要从“有没有提供工具”,变成“提供的工具有没有实际效果”。这要求平台内部的产品、合规和数据团队,都要彻底地改变工作方式。他们需要更加紧密地合作,确保每一个设计都能经得起审查。而且,他们还需要有能力收集和分析数据,来证明自己的措施是有效的。
全球监管对比:欧盟走在前头
我们来看看全球其他地方是怎么做的,你就能发现欧盟的DSA有多特别。
| 区域/法案 | 监管核心思路 | 介入层面 | 典型做法 |
| 欧盟 (DSA) | 管理系统性风险。直接介入平台的产品和算法设计。 | 在产品设计阶段就介入。设计本身就是监管对象。 | 行政处罚。要求平台修改设计,并证明修改有效。 |
| 美国 (各州诉讼) | 主要用消费者保护法、产品责任法。关注青少年受到的心理伤害和欺骗行为。 | 事后追责。通过法院起诉来解决问题。 | 司法诉讼。主要看平台有没有欺骗用户,或者有没有伤害用户。 |
| 其他地方 (如部分欧盟成员国) | 更多用硬性规定。比如限制用户年龄,限制使用时间。 | 从外部进行限制。很少直接管平台的核心设计。 | 强制用户年龄验证,规定特定时间不能使用。 |
你可以看到,美国那边,通常是有人觉得受到了伤害,然后去法院告平台。就像你吃了不干净的食物,去告餐厅。而欧盟呢,它直接进入了平台的“厨房”,说你做饭的流程有问题,你的食材选择有问题,要从源头上进行管理。
DSA的特别之处就在于,它把合规的责任提前了,放到了产品和算法的设计阶段。意思是,“设计本身”就成了可以被检查和调整的东西。这就像给平台的“创意自由”画了一条线,告诉它们,你的设计不能只考虑赚钱,还得考虑用户的健康。
给平台的建议:从“事后补救”到“设计就合规”
欧盟的这次行动,给所有数字平台敲响了警钟。平台必须彻底改变对合规的看法。不能再等到出事了才来想办法。
1. 重新定义风险:设计阶段就要考虑合规。
平台需要把“产品设计合规 (Compliance by Design)”放到最核心的位置。这不再是产品上线后才去检查的一个环节。它应该从产品原型设计和迭代的一开始,就深度融入进去。
而且,算法不再是一个“黑箱”了。它的“可解释性”现在是必须遵守的硬性要求。平台必须能清楚地解释:你为什么在深夜给某个用户推荐了这个内容?你有没有评估过这个功能可能带来的成瘾风险?平台要能把自己的算法“说清楚”,不能再藏着掖着了。这就像你的智能管家,现在你要求它,每次做决定都要告诉你理由。
2. 提前思考整改方向。
从欧盟释放的信号来看,平台可以提前考虑以下几个方向来做改变:
- 引入“阻尼设计”: 这是什么意思呢?当你一直在刷手机,比如看视频看了很久。应用就要主动跳出一个提示。这个提示不能让你马上关掉。它会说:‘你已经看了6小时了,休息一下吧。’而且,这个提示要停留一段时间,比如30秒。它会强制你停下来。你不能直接点一下就跳过。这样才能真正帮你休息。这就像给你的刷屏行为踩了刹车。
- 默认保护机制: 对未成年用户,不能再默认他们和成年人一样了。平台应该默认降低个性化推荐的强度。或者在深夜时段,自动把应用切换到“限制模式”。这样,那些可能让人上瘾,或者不适合未成年人看的内容,就不会被推荐出来。这就像给孩子们使用的数字空间,提前安装了一道“安全门”。
- 外部独立评估: 平台不能只靠自己说了。它们应该找一些专业的第三方机构,比如有医学或心理学背景的专家。让他们来评估平台算法的成瘾性。而且,评估的结果要提交给监管机构。这就像找一个独立的医生,来给你的产品做“健康检查”,确保它不会让用户生病。
这些建议,做起来可能很难。但是,我认为,这才是平台重新获得用户信任,并真正承担社会责任的办法。
最后说一句:算法责任,正在成为新常态
欧盟这次对TikTok的执法,不是一个孤立的事件。它背后是在用DSA,重新定义数字世界里算法和平台的责任。
这件事有一个非常重要的意义:算法推荐和交互设计,第一次被明确地纳入了法律的审查范围。 它们现在是可以被执法、被检查、被处罚的对象了。这可不是小事。
一旦这种监管方式在欧盟生效,很可能会影响到全世界其他国家。美国、英国等等,都会看到欧盟的做法。它们也可能跟着采取类似的措施。
所以,这次调查,不只是一场普通的合规风波。它更像是在重塑我们现代人的数字生活方式。它也在重新定义,平台在这个数字时代到底有多大的权力。我们每个用户,最终都会从这些改变中受益。因为它们会让我们的数字生活更健康,也更自由。
飞鸽出海











