算法陷阱、信息茧房?欧美大厂,是怎么被舆论批斗的?
2020年,欧美爆发了一场针对社交媒体的舆论战争,其引爆点,是Netflix推出的一部名为《监视资本主义:智能陷阱》的纪录片。
这部片子,找来了一群曾经在谷歌、Facebook、Twitter等公司担任过核心高管和工程师的“吹哨人”。
他们用一种“内部人”的、现身说法的、充满忏悔的口吻,为全世界观众,描绘了一幅极其恐怖的故事。
故事是这样讲的:
第一,这些社交媒体的商业模式,本身就是**“邪恶”**的。
我们以为,这些服务是免费的。错了!这部片子引用了一句名言:“如果你没有花钱买产品,那么,你就是被卖的产品。”
我们每一次的点赞、评论、分享、停留,我们所有的线上行为数据,都在被这些平台,贪婪地收集和分析。然后,它们把我们的“注意力”,打包成产品,卖给真正的客户——也就是那些广告商。
第二,为了最大限度地**“开采”我们的注意力,它们发明了最强大的“思想武器”****——推荐算法。**
这个算法,就像一个24小时不眠不休的、驻扎在我们大脑里的“超级说客”。它的唯一目标,就是预测我们下一步想看什么,然后精准地、源源不断地,“投喂”给我们。
它知道我们的所有弱点:我们喜欢看什么样的刺激内容,我们对什么样的阴谋论感兴趣,我们会被什么样的情绪所感染。
第三,这个**“算法投喂”**的最终结果,是灾难性的。
对个人而言,我们被它“绑架”了。我们陷入了无休止的、被动的信息流之中,丧失了深度思考和专注的能力。我们的心理健康,特别是青少年的心理健康,因此受到了严重的损害(比如身材焦虑、网络霸凌)。
对整个社会而言,我们被分割、被撕裂了。因为算法,只会给我们看那些我们本来就相信的东西,它会不断地强化我们的既有偏见。一个左派,会看到越来越多的左派信息;一个右派,会看到越来越多的右派信息。我们每个人,都被困在了一个由算法为我们量身定做的“信息茧房”和“回音室”里。
最终,我们丧失了公共对话的能力,社会变得越来越极化,民主制度,也因此而岌岌可危。
你看,这个故事,是多么地具有说服力和震撼力!
它把我们日常生活中,那些隐隐约约的不安——比如“我怎么又刷了两个小时手机”——系统化、理论化,并上升到了一个关乎人类文明存亡的高度。
这部纪录片,在全球范围内,都引发了巨大的恐慌和讨论。“监视资本主义”这个词,成了所有科技巨头的通用标签。
在这股强大的、反“算法操控”的舆论推动下,全球范围内的立法者,特别是欧洲的立法者,开始行动了。他们决心要用法律,来驯服这头“算法巨兽”。
最重磅的管制武器,就是2022年欧盟正式生效的《数字服务法》(Digital Services Act, DSA)。
这部法律,被誉为全球数字监管的“黄金标准”。它对那些超大型的在线平台(比如Facebook、YouTube、TikTok),施加了一系列极其严格的、前所未有的管制义务。
这个法律要求,平台算法需要透明,必须向监管机构和研究人员,详细解释其推荐算法的主要参数和工作逻辑。
平台还必须定期评估其服务,可能对其用户的基本权利(如健康、隐私)和社会公共利益(如政治极化)带来的系统性风险,并采取措施加以缓解。
平台必须为用户提供一个**不基于****“用户画像”**的、非个性化的内容推荐选项。也就是说,用户有权“关闭”那个被认为在操控他的算法。
除了欧盟这个“带头大哥”,在美国,管制的焦点,则更多地集中在“保护儿童”上。
在加州,通过了《适龄设计规范法》,要求在线服务在设计时,必须优先考虑儿童的最大利益。
在犹他州、阿肯色州等共和党主导的州,则通过了更激进的法律,要求社交媒体平台,必须对所有未成年人用户,进行严格的年龄验证,并获得其父母的明确同意。有些州甚至规定,平台在夜间,必须自动限制未成年人的使用。
你看,一场针对“算法”的、全球性的管制大网,正在收紧。
好了,现在,我们要用我们的X光眼镜,来审视一下,这个关于“算法操控”的恐怖故事了。
这个故事,最大的问题,在于它颠倒了因果关系。
它把“算法”,描绘成了一个主动的、邪恶的“施暴者”。
但真相可能恰恰相反:算法,更多的时候,只是一个被动的、极其高效的**“镜子”和“仆人”****。**
它照见的,是我们人性深处的那个“地窖”;它服务的,是我们自己都未必愿意承认的、那些古老的欲望和偏见。
我们先来破除“信息茧房”这个迷思。
你真的以为,在没有算法的“田园时代”,人们就是生活在一个信息开阔、观点多元的美好世界里吗?
恰恰相反。
·在一个只有报纸的时代,一个左派,他会主动去订阅一份右派的报纸,天天给自己添堵吗?不会的。他会选择看《纽约时报》或《卫报》。
·在一个只有电视的时代,一个右派,他会天天守着CNN看吗?不会的。他会选择看福克斯新闻(Fox News)。
·在日常生活中,我们更愿意和谁交朋友?是那些和我们观点相投、能聊到一块儿去的人,还是那些天天和我们吵架、挑战我们三观的人?
你看,为自己构建一个**“认知舒适区”****,只愿意接触那些能印证自己既有观点的信息,这,是人性的本能。**
算法,做了什么?
它只是用一种前所未有地高效的方式,满足了我们这个**“寻找同类、回避异类”**的本能而已。
它不是那个把我们关进“茧房”的狱卒。它只是那个最懂我们心思,不断地为我们添砖加瓦,把我们的“茧房”建得更舒适、更牢固的仆人。
我们不是被算法**“困”**在了茧房里,而是我们自己,主动地、舒服地,躺在了算法为我们编织的茧里。
再来看那个“思想操控”的指控。
算法,真的有那么大的能力,去“植入”一种我们原本没有的思想吗?
还是说,它更多的时候,只是在“放大”我们心中早已存在的、那些微弱的偏见和欲望的火苗?
一个内心充满不安全感和阴谋论倾向的人,算法会给他推送更多的阴谋论。一个对某种极端思想有潜在兴趣的人,算法会把他,一步步地,引向更深的“兔子洞”。
但算法,很难把一个内心平和、理性的人,变成一个极端分子。
算法,不是那个**“播种者”。它只是一个极其高效的“施肥者”和“催化剂”****。**
而那个真正需要我们警惕的,不是“算法”这个工具,而是我们人性中,那个永远存在的、阴暗的“地窖”。
现在,我们再来看看,那些旨在“驯服”算法的管制,会带来什么样的意外后果。
以欧盟的《数字服务法》(DSA)为例。
它要求平台,必须对其算法的“系统性风险”,进行评估和缓解。
这个规定,听起来,是不是特别好?
但你仔细想一想,什么叫“风险”?谁来定义“风险”?
·一个关于“疫苗副作用”的讨论,算不算“健康风险”?
·一个批评欧盟移民政策的视频,算不算对“公共安全”的风险?
·一个质疑气候变化主流叙事的帖子,算不算“虚假信息”风险?
当平台,面临着来自政府监管的巨大压力和天价罚款的威胁时,它最理性的选择,是什么?
是“宁可错杀一千,绝不放过一个”。
为了规避法律风险,它会变得极其保守。它会用更严厉的、一刀切的方式,去审查和删除所有那些可能引起争议的、处于灰色地带的内容。
一个旨在**“提升算法透明度”和“保护用户权利”的管制,最终,很可能会演变成一场由科技巨头执行的、大规模的、事实上的管制。**
它非但没有让我们更自由,反而可能让我们,进入一个更单一、更乏味、更“政治正确”的信息环境之中。
再来看那些针对儿童的保护法案。
要求平台对所有未成年人,进行严格的“年龄验证”。这听起来,是在保护孩子。
但它意味着什么?
意味着,未来你可能需要上传你的身份证、护照,甚至进行人脸识别,才能使用一个社交软件。
一个旨在**“保护”**儿童隐私和心理健康的管制,其代价,是所有成年人,都必须向科技公司,让渡自己最核心的、最敏感的身份隐私。
这,难道不是一个更可怕的“监视资本主义”吗?
一个清晰的链条,再次出现:
将“信息茧房”、“社会极化”等复杂问题,简单归因于“算法操控”的错误观念 → 催生出“政府必须管制算法,保护用户”的负面舆论 → 推动了以欧盟DSA为代表的、对平台进行深度干预的管制 → 这种管制,最终可能以“言论审查”和“隐私丧失”为代价,带来一个更不自由的数字世界。
当我们因为恐惧一种新技术的力量,而急于呼唤一个“更强大的力量”去管制它时,我们很可能,只是在“引狼入室”。
我更奇怪的是,怎么欧美搞什么管制,中国也要跟进呢?