最近德国的《明镜周刊》报道了一件事,我刚看到的时候,觉得好像不太起眼。但是仔细一想,这事儿真的不小。欧盟委员会说,TikTok的产品设计有**“成瘾风险”**。他们觉得这可能违反了欧盟的法律。如果真的违反了,TikTok可能会被罚掉全球年营业额的6%。这个数字可不是开玩笑的。
你可能会觉得,欧盟怎么突然对TikTok下手了?其实不是突然。欧盟已经调查了两年。他们去年2月就对TikTok启动了专项调查。现在公布的这个评估报告,就是他们调查的阶段性结果。这事不只针对TikTok一个平台。它第一次把一个我们以前不太注意、但是非常普遍的问题摆出来了。这个问题就是:数字产品的“成瘾式设计”。

欧盟到底在说什么?
欧盟不是说TikTok的内容有问题。他们指的,是产品设计本身。他们觉得,这个设计是不是在故意诱导用户上瘾?
他们点名了一些功能,我们都很熟悉:
- 无限下滑。你看视频的时候,手指一划,新的内容就来了。根本停不下来。
- 自动播放。一个视频看完,马上就接着下一个。你根本没有机会停下来思考,或者关掉。
- 高度个性化的推荐算法。它会一直给你推你喜欢的内容。这些内容都像是为你量身定做的。
- 强刺激、快节奏、即时反馈。视频内容短,节奏快。你一点赞、一评论,马上就能看到反馈。
- 精准推送通知。手机时不时响一下,提醒你“有新消息”,把你一次次拉回平台。
这些功能,我们平时根本没当回事。我们觉得它们就是“理所当然”的。但是,欧盟不这么看。他们的逻辑是:一个平台,如果明知道这些功能会让用户上瘾,尤其是会伤害未成年人,却还是大规模地用,那它就要负法律责任。这不是在讨论道德问题,这是法律问题。
很多人会问:“以前Facebook、Instagram、YouTube这些平台,不也早就这么干了吗?为什么现在只盯着TikTok?”我觉得,原因主要有三个。
第一,TikTok的用户特别。在欧洲,TikTok增长最快的用户,是青少年和未成年人。这帮孩子在欧盟法律里,是要特别保护的对象。他们不把未成年人看作市场,而是看作需要保护的人。这很重要。
第二,欧盟现在有“新武器”了。过去几年,欧盟通过了一个《数字服务法案》(DSA)。这部法律的核心思想很简单:“平台越大,责任越重。” 以前呢,平台会说:“我只是提供技术,内容是用户发的,和我没关系。”但是DSA不这么看。它说,你平台这么大了,影响力这么广了,你就不能再装无辜了。比如说,如果Facebook传播假新闻太多,它就要负责。TikTok如果让孩子们上瘾,它也要负责。这就是DSA想做的事。
第三,欧盟的管理思路变了。我感觉,欧盟这些年越来越明白一件事:不能等到伤害都发生了才去补救。他们想在**“机制层面”就预防风险**。这次针对TikTok,其实就像一次“测试”。如果TikTok被认定违规了,那么接下来,所有大的数字平台,可能都要面对类似的问题。
“让人上瘾”真不是小问题!
说实话,在国内,孩子刷短视频,也让无数家长头疼。这可不是欧洲家长才有的烦恼。
你是不是也有这种感觉?孩子拿到手机,本来只说“看一会儿”。但是等你去拿回来的时候,孩子已经完全变了个人。情绪失控,哭闹,抗拒,甚至会非常烦躁,容易发脾气,注意力也不集中了。
我们往往会怎么说?“这孩子就是自控力不行。”
然后呢,所有的压力都跑到了家里。家长要么变得非常严厉,要么就特别内疚,觉得是自己没管好。或者就是在“给不给手机”之间来回拉扯,很纠结。
但是,我们很少会停下来问一句:一个连我们成年人自己都很难控制的系统,凭什么要让一个还在成长中的孩子去承担所有责任?
在国内,我们大多数时候把它看作**“家庭教育问题”。我们觉得,是家里没教好,没管住。但是,欧盟把它看作一个需要公共社会一起解决的系统性问题**。
这可不是因为欧洲的孩子特别脆弱。而是他们更早意识到:问题可能不在孩子身上,也不完全在家长身上,而在于产品设计本身。你想想,一个系统被设计出来,就是为了抓住你的注意力,让你不停地看。它比我们自己更了解我们的大脑,更了解我们对刺激的反应。这时候,你还指望一个孩子有无限强大的意志力去抵抗?这不现实,也不公平。
所以,“成瘾”不是道德问题。它是一个公共健康问题。这就像我们以前对香烟的看法。以前大家觉得抽烟是个人选择,怪自己意志力不强。但是后来,我们发现香烟的设计本身就是让人上瘾的。政府就出手了,比如在烟盒上印警示图,限制广告。现在,欧盟看数字产品,也是这个思路。它觉得,让人上瘾的产品设计,就像香烟一样,会伤害大众健康。
这事不只关于孩子,也关于我们大人
我们一次次地和孩子为了“手机时间”吵架、妥协,很容易把问题归结为:孩子不自律,家长没管好,家庭教育不够。但是,这条新闻提醒我们,可能还有别的可能性。
孩子刷不下来的短视频,也许不是他们自控力不够。而是我们整个社会对注意力的争夺,早就超出了一个家庭能应对的范围。
所以,欧盟这次指控TikTok,引发了一个新的社会讨论:技术该不该被限制?平台该不该为“成瘾”负责? 当一个系统被设计成一个**“抓住注意力”的机器**,它比我们更懂我们的大脑如何获得奖励,如何产生情绪反馈,如何形成依赖。这时候,我们所谓的“自控力”,本身就变成了一种很稀缺的东西。要求一个还在成长中的孩子,在这样的环境里,还能一直保持理性,一直有节制,这本身就是不公平的。
欧盟这次盯上TikTok,不是因为他们的孩子更容易沉迷。而是他们更早承认了一件事:有些问题,不是只靠个人意志就能解决的。
对家长来说,这可能是一种“松绑”。它不是说我们就可以完全不用管孩子了。而是说,我们可以换个角度看自己,看孩子。我们可以少一些指责,多一些理解。少一些内疚,多一些清醒。把一些原本不该由我们家庭独自承担的重担,重新放到公共讨论中去。这本身,就是一件值得记录的事。是一个很大的转折。
如果TikTok最终真的被认定违规了,结果可能会是这样:
- 它可能被要求修改推荐机制。不能再那么精准地让你“陷进去”。
- 它可能需要限制自动播放,或者限制无限滚动这种功能。
- 对未成年人,可能会设置更严格的使用限制。比如限制使用时长,或者限制某些功能。
- 甚至,它可能需要在界面上强制增加“中断感”。让你时不时地被迫停下来,清醒一下。
这不是要“封杀”TikTok。而是要削弱平台对我们注意力的控制力。说白了,就是不再让你不知不觉地陷进去,让你有更多选择和退出的机会。
但是,这里面也有很多复杂的问题。比如,什么样的设计才算“诱导成瘾”?是无限滚动就算吗?还是自动播放?是算法推荐本身有问题,还是推荐的边界没有把握好?当“让用户体验更好”和“过度占用用户注意力”之间,只有一条很模糊的线时,监管部门和这些创新公司之间,应该怎么画这条线?
这些问题,现在没有现成的答案。它们只能在监管机构和平台不断地沟通、博弈中,一点一点地被弄清楚,被定义,最后写进规则里。所以,接下来会发生什么,我们真的需要一直关注。
飞鸽出海











