无法放下手机是意志力薄弱吗?谷歌、脸书和自行车一样只是我们使用的工具吗?算法和技术是中立的吗?假新闻为什么无往而不胜?这个假期看完的第一个片子是奈飞新出的纪录片《监视资本主义:智能陷阱》,触目惊心,假期的末尾希望有空的话你也可以看看。
影片其中一条叙事线由谷歌、脸书的前员工、ins早期员工、推特高级副总工程师等一票国际互联网大厂的从业者面对镜头讲述,这里面不乏社交媒体上点赞功能的设计者,甚至还有帮助脸书建立商业模式的负责人,他们出于对行业道德伦理的担心纷纷离开,现在他们重新站出来讲出他们看到的真相并发出警告。下面我将摘选30条我觉得重要的观点,方便你快速了解。
1.进入凡人生活的一切强大之物,无不具有弊端——索福克勒斯
2.主角之一的特里斯坦·哈里斯是前谷歌员工,曾在谷歌邮箱团队工作,他觉得很疲惫,因为他们一直在讨论邮箱应该长什么样,用什么颜色,他坦承自己对邮件上瘾,但更有趣的是团队里每一个人都想让用户上瘾。但是大家有反思过这个现象吗?他认为谷歌有解决这个问题的道德责任。但讨论在谷歌内部却不了了之。
3.脸书商业化负责人说,他负责帮助脸书想出如何盈利,而彼时他认为广告模式可能是最优雅的模式。以前我们为硬件和软件付费,但现在这些互联网产品都是免费的,但其实并不真是免费,背后是广告商在付费,广告商是这些互联网产品的客户,而使用者其实是被销售的商品。经典的说法是,如果你没有花钱买产品,那你就是被卖的产品。
4.谷歌并不只是一个搜索工具,脸书并不只是一个你和朋友联系的社交工具,其实种种互联网产品,他们都是在抢夺我们的注意力。仔细想一下这些互联网公司是怎样运作的。用户免费,广告商付费,广告商为什么付费?他要花钱交换你看广告,我们的关注就是卖给广告商的产品。这样说可能过于简单了,产品其实是我们的行为和认知的逐渐的一点点未察觉的改变。这才是他们拿来赚钱的唯一的东西:改变你做的事,你的思维方式,改变你这个人。
5.每种商业都有个梦想:投放一个广告,有成功的保障,这就是广告平台的生意,出售确定性。为了这个商业成功,必须有预判的能力,而优秀的预判能力始于一个必要的条件那就是数据。
6.我们使用互联网社交产品的一切行为数据都被监控和记录,具体到你在某张图片停留多久,我们的孤独、抑郁时刻,我们爱看前任的信息,我们深夜做什么,这些系统统统知道。这些我们不经意流露出的数据,都被喂养给系统,而这几乎不需要人看管,系统会不断做出越来越好的预判,判断出我们是什么样的人,我们要做什么。
7.很多人有一个误解,认为被卖掉的是我们的数据,脸书的兴趣肯定不是卖掉数据,而是用数据建立一个可以预测我们行为的模型,拥有最优秀模型的公司就是最后的赢家。我们用互联网技术创造了全球一整代人,他们成长的背景中,彼此之间的交流,文化中都渗透着操纵的鬼影。
8.任何足够先进的技术都极其类似于魔术。
9.魔术师几乎是最早的神经学家和心理学家,他们是最先明白人们思想工作原理的人。魔术师懂得你思想中你自己都没有意识到的某一部分,这是让幻觉起作用的关键。
10. 特里斯坦·哈里斯在斯坦福大学的劝服技术实验室研究如何用心理学知识劝服人们,以及如何把这个运用到互联网技术中。很多硅谷的互联网公司的人都学过这样的知识。他们想修改一个人的行为,让人们按照他们的意愿去做,譬如不停的用手指滑动屏幕浏览信息。往下拉,最上面是新的内容,再往下拉,上面又是新的每次都一样,这在心理学上被称作积极正强化。你不知道什么时候能刷到,或者你能刷到什么。这其实和赌场里老虎机的原理一样。
11.无数工程师他们的工作就像黑客一样黑进人们的心里,然后获得更多产品数据的增长,更多的用户增长,更多的活跃。他们会做大量的AB测试,然后根据结果不断优化就可以让用户做他们想让用户做的事,这就是操纵。很多时候他们诉诸的是人的潜意识,你被影响时甚至根本没有意识到,因为这是在利用人心理中最脆弱的部分挣钱。
12.自行车问世的时候,没有人不满,没有人会说它毁灭了我们的社会,因为自行车拉远了父母和孩子之间的距离,毁灭了我们的民主,让我们无法分别消息的真假。如果一个东西是工具,它就会忠诚的坐在那里,耐心等待。如果一个东西它对你有所求,它想引诱你,操纵你,从你身上获利,它就不是工具那么简单了。
13.我们已经走过了以工具为基础的技术环境,来到了以致瘾和操纵为基础的技术环境。社交媒体不是在原地等待被使用的工具,它有自己的目标,有自己的方法去实现这些目标。利用你的心理来对付你,
14.社交媒体就是一种毒品,我们有着基本的生物学的欲望比如和别人保持联系,这直接影响着奖赏通路中多巴胺的释放,这背后是几百万年的进化,我们群居找到伴侣繁殖。毫无疑问,社交媒体会优化这种联系,自然会有致瘾的可能性。
15.这些技术产品不是由努力保护儿童的心理专家设计的,他们的设计是让算法非常善于给你推荐下一个视频,非常善于让你拍照加滤镜。这些东西不仅在控制我们注意力放在哪里,而且越来越深入到大脑的根部,夺走孩子的注意力和自我价值。我们进化出了在意社群中的其他人评价的机制,这很重要。但是,我们进化需要在意一万个人怎么看我们吗?我们的进化不需要每隔5分钟获得一次社交认可。
16.我们在训练、调节整个一代人,我们不自在、不确定、孤独、害怕时,有一个自己的数码安慰,这让我们处理自己情绪的能力退化了。
17.有一种说法是,我们应该去适应它。我们要学着与这些设备共存,就像我们学着与其它事物共存一样。但这个说法忽略的是,有些东西明显是全新的。这其中最危险的是,这是由技术驱动的成指数级向前发展的。计算机处理能力,从上世纪60年代至今,增长了亿万倍,我们身边没有任何东西以这个速率增长。而我们人类生理上,大脑根本没有丝毫进化。我们的大脑已经存在几百万年,然后出现了这样一块屏幕,屏幕的另一端是数千工程师和超级计算机,有着与你不同的目标,那么这个游戏谁会赢呢?
18.算法是内嵌在代码中的观点,算法并不是客观中立的,算法被某种成功的定义优化。你给AI一个目标,我想要这样一个结果,AI自己去学习怎样实现,这是机器学习概念的由来。没人真正明白,为了实现这个目标,他们在做什么。
19.算法有自己的思想,虽然它们是由人写的。它被写出来的目的,是建立一个机器,这个机器会自己改变。作为人类,我们几乎已经失去对这些系统的控制,因为使它们在控制我们看到的信息。
20.想象一下,你用脸书,你的对手是人工智能,它知道你的一切,能预测你未来的举动,而你对它一无所知,这根本不是公平的竞争。
21.我们都在担心这个时刻,技术什么时候超越人类的智慧和力量。但有更早的时刻,技术超越人类的弱点时,这个超越点就是上瘾。两极分化、激进化、激化愤怒,激化虚荣,它在压制人类的天性,挫伤人性。
22.脸书的推送方式非常错误。如果我们打开一个维基百科页面,你看到的和别人的是一样的。这是网络上少有的我们统一共享的东西。想象一下,如果维基百科说,我们要给每个人一个个性化的定义,有人给我们钱让我们这么做,维基百科会监视你,会计算要怎么做才能代表一些商业利益,让这个人产生一点改变,对吧?然后就会改变整个词条。你能想象吗?脸书就是这样,你的youtube推送就是这样。
23.看了这个片子我才知道,原来在不同地方用谷歌搜索我们得到的是不同的结果。譬如我们在搜索框输入“气候变化是”在某些城市你会看到自动填充的提示语是“气候变化是一场骗局”在其它地方你将会看到“气候变化是对自然的破坏”。这个功能提供的不都是气候变化的真相,而取决于你在哪里搜索,以及谷歌对你个人兴趣的了解(譬如如果你是个阴谋论者,它就会给你推送气候变化是一场骗局的内容)。
即使是两个很相似的朋友,看到的也是完全不同的内容,因为算法会按照怎样对一个人来说最完美来呈现内容。逐渐你会有一个错觉,所有人都赞同你,因为给你推送的新闻中,每个人都和你极其相似,一但达到这种状态,你就容易被操控了,和被魔术师操纵是同样的方式。
24.油管前算法推荐工程师坦承,他研究的一个算法增加了社会的两极分化。但从在线时间上看,这种两级分化的做法却极其有效的让人们一直在线观看。
25.著名篮球运动员凯里·欧文说他相信地球是平的,后来公开道歉时说,这是油管算法的锅。地球是平的这一言论被算法推荐了几亿次,我们很容易判断出大概只有几个笨蛋真的相信。但可怕的是,算法每天都在变得更聪明,今天它能说服少部分人相信地球是平的,明天它就能说服你相信一个完全虚假的事情。
26.推特上传播假新闻的速度比真新闻快6倍。当一个人比另一个人有6倍的优势,这个世界会如何?你可以想象,有些事情让人类的基本面倾斜了。让一些行为更难,一些行为更容易。虽然你总是可以自由的走上山坡,但这样的人越来越少。所以在更大的范围内,整个社会的基础倾斜了,改变了数十亿人的想法和行为。
我们创造了一个偏爱假信息的系统,并不是因为我们想这么做,而是假消息能让这些公司更容易赚到钱,你知道的,真实信息比较无聊。这是一个利用虚假信息牟利的商业模式,允许未受监管的信息推送给更多的人,卖出更好的价钱,以此来赚钱。
27.脸书每天推送万亿个新闻资讯,他们无法知道哪些信息是真的哪些是假的。从未有工具像脸书一样能够如此低成本又高效的影响如此广泛的人群。算法和政治家在学习如何激发我们的方面变得越来越专业,非常擅长制造我们容易接受的假新闻让我们信以为真。我们似乎对自己是怎样的人,自己的信仰越来越缺少控制权。如果每个人都有权执着于自己的真相,就没有必要妥协团结了。我们需要对现实有一些共同的理解,否则我们就不是一个国家了。
28.谷歌不知道真相,它只知道点击。如果我们不认同真相,我们就无法找到任何一个问题的解决办法。硅谷的很多人相信一种理论,我们正在建造一些全球的超级大脑,我们所有的用户都只是可交互的神经元,我们一点都不重要。它让人们服从于这样一个奇怪的角色,你就像一个小的编程元素,我们通过我们的行为操纵去编程,为了服务于这个巨型大脑,不会给你钱,不会让你看到真相,你没有自主权,因为你只是编程的一个节点,你根本不重要。
29.技术并不是人类存亡的威胁,只是技术能够把人类社会中最坏的东西带出来,社会中最坏的东西才是人类存亡的威胁。如果你不知道身处矩阵之中,你如何从矩阵中醒来。
30.在整个人类历史中,每一次有事物变得更好,都是因为有人站出来说,这太蠢了,我们可以做得更好。是批判者推动改进,批判者才是真正的乐观主义者。
影片的最后,画外音问特里斯坦·哈里斯,你觉得我们能改变这一切让他们变得更好吗?特里斯坦·哈里斯说,我们必须要实现。
网飞的纪录片《social dilemma》真正揭开了科技(互联网)公司的神秘,让我们看到个人在一整套系统技术和盈利目标面前的脆弱。这种脆弱,有纯粹力量上的对比,但与历史上的技术变革影响相比,这一轮的科学技术利用人天性弱点的能力前无古人,助力背后操作者,甚至是操作者背后的人完成其目的。
在这部纪录片里,几个硅谷科技公司的早期员工、重要成员,相继表达了这样一个观点:“科技一开始是为了美好的目标,但走着走着就变了样子,我们根本没想到会这样。” 确实,google的提供信息,facebook的连接亲友,甚至美团的外卖速递,一开始都是为了满足人们正常的需求,让生活更美好。什么时候开始变糟了呢?
在这些互联网公司,所有的事物目标归根结底分为三类:engagement,growth,monetization。让用户停留尽量多的时间,让尽量多的用户加入,从他们身上尽量多的赚钱。再往前走一步,这其实就是从尽可能多的人身上长久地赚最多的钱,资本主义的典型状态。
然而这能怪资本主义吗?资本主义的逻辑是如此强大成熟,现代社会运行与之密不可分。与其从意识形态入手解决问题,不如降一格,从社会、政治、技术、制度层面尝试。
赚钱,本质上其实是一件中立的事,这个目的本身并不是罪恶的,或者对人有害的。目前来看,是商业模式只找到了最简单的赚钱方法,煽动人的情绪和本能来获取更多的注意力,并最终转化为赚钱。然而除了煽动情绪,难道没有别的选择吗?这确实是最便捷的路,但如果用更好的,稍微复杂的东西来代替它,是否可以一样保持赚钱,但同时又减少对社会和个人的伤害呢?
举个例子,约会软件。使用约会软件,人们很容易关注的是自己被多少人like,有多少match这些指标,但这些真的是人最需要的吗?被多少人like,match,背后是一种空洞的影响力和权力。相比之下,我觉得大部分人在约会软件上其实最想要得到的,是和真实的人的社交,无论是交朋友,还是情感,还是性。质比量重要。而约会软件大多把重点放在如何match人,match到了(或没match到)就不管了。就像爱情故事里结婚以后就happily ever after了,但真实的生活不是这样,产品应该帮助人更好地认识和应对真实的生活。
作为一个市场营销分析人士,我的日常工作就是计算用户购买商品的可能性,选出更有可能购买的用户,将邮件、信息推送给他们。在我做项目时,我看着千万级的用户,会把他们就当成数字,计算着销售额、购买率会有多少提升,不会想到这每一个数字背后都是一个个真实的家庭真实的人。
为了改变这种情况,当然可以用外部限制,比如政府立法。但有没有办法,企业自己找到别的对人有益的、更加理性的指标纳入考核标准?或者改变广告的商业模式,让企业明着支持广告,将自己的名字与社会责任联系起来?这需要多方面的改进。就像最近关于外卖骑手的讨论,算法只是中间的媒介,是投资者、消费者、经营者的思维传导媒介。要解决问题,需要社会各界的研究和努力。
我现在在和两个朋友尝试做一个线上辩论/讨论的app和插件,希望能改善互联网上的评论环境,通过将一个议题正反双方的观点同时展示在内容之下,减少有害言论,增强信息来源的展示以减少不实信息,根据成员发表的评论的复杂度和参与程度来进行engagement分层,来改善线上讨论的体验,让其更加理性,更加全面。
如果你想到什么相关的解决方法,或者相关的议题,欢迎讨论。
更新:刚发现,《黑袍纠察队》第二季第七集片头与该片主旨严重契合。
——————————————————————
首先,影片制作本身,在嘉宾谈论之外加入情景剧、拟人演绎、动画演示,太炸了(27/06/2022 我发现每每重看自己的文章,有时总能让人忍俊不禁,尴尬无比。但其实,我是不想修改的,这就是当时较为真实的状况),最后那个类似《水滴》拉伸镜头展现出来电子大脑的结点囚牢让人原地炸裂。人们一步步被控制得死死的,身处现实世界越来越看不清,而在虚拟囚牢里却越来越真实。(囚牢里的男主从一开始全身透明的人类形体,一点一点被“充实”显现,到最后完全坠入,像行尸走肉) 其次,说回影片主旨,当下的各类社交媒体,包括“豆瓣”本身,在此风暴下,又何尝不是与“视觉文化”以来,居伊·德波的“景观社会”达到一种严丝合缝的契合。人们“自甘堕落”。
人类必将在自我发展中自我毁灭。图片时代更替了文字时代,影像时代更替了图文时代,发展的同时也是毁灭。事物存在的前提与事物所需之发展相悖,太多了,存在即悖论。
个人而言,少用手机,甚至不想用,但是大家都要用,我也就被裹挟。举个最简单的例子:现在你让上司通过短信(再“离谱”的方式我就不多说了)联系你那是不可能的,你也不可能同时与多人通过短信即时相互交流和沟通。
但,“景观社会”最核心的一点是什么?它是怎么存在的以及如何发展壮大的?它的基础是目前所处的影像时代,以各大社交媒体为平台,我们消费和得到的是别人的关注。我们不再只是购买和拥有,我们更多从“拥有”转向了“展示”。所以,我本人手机里东西尽量少,朋友圈不咋看(我的朋友圈也尽量小),我自己也越来越少发东西,也确实没意思,甚至怕别人给我点赞。因为,I don't give a shit. (27/06/2022 我想当时可能是美剧看多了)我并不在意别人怎么看以及如何看我的东西,我一直觉得是,你看不看、怎么看这是你的事,与我无关。但同时我也很清楚,所有人在点赞和评论时,第一,要么是认为对方是在意你这一下的(比如一些秀智商的评论);第二,要么是自己在意这一下的(比如一些秀智商的评论);第三,要么是真心喜欢和认同的。以上几点,虽然会有大相径庭,但其实有一个共同的核心——渴望被看到被(去)认同。(有人会疑问第三点,个人认为其实“点赞”和“评论”的动因在于潜意识里的“物以类聚,人以群分”,尤其“豆瓣”里面,相对于微信朋友圈什么的,“亲人朋友票”较少,也就是说你潜意识里认为自己是这一挂的,志同道合的,品味相投的。清流也好,“泥淖”也罢,玩笑也是,都无所谓)这也正是“景观社会”的引力核心,也是当下人们的精神疾病。
个人有些极端和无情。虽然I don't give a shit,按理说别人点不点赞还关心什么?但就是不喜欢别人点赞。因为,点赞无非是上面情况其一,我从不站边,我就是我,我只相信自己,我也不需要任何人的赞美和认同,最不喜欢别人的加油和鼓励。我也从不加入什么豆瓣小组,加入了我也不会看。我相信没有人可以被范围圈定,或许有什么“三教九流”、“人以群分”和“芝兰之室”,但,与“我”(个体)无关,I don't give a shit. 我不是什么反社会人格,但我确实想与世隔绝,独自生活。
跟很多人一样,个人只是把朋友圈、空间还有豆瓣什么的,当做自己对日常生活的记录。
渴望被看到被认同,不好吗?不是。除了某些炫耀作秀的畸形心理(景观社会的病症)不好之外,一些价值上的被认同,努力上的被看到,没什么不好。因为人总是很孤独。
个人的感觉是,只要你不在意所谓的关注和赞美,平常心对待,那么你孤独中有时出现的赞美和认同就会变成黑暗中的火光,力量会更大。不要期待被关注、被认同和被赞美,更不能习惯被关注、被认同和被赞美,这样也不会那么容易被那些“陷阱”所陷害。
其实能做到这样,也就基本上是因为你是什么样的人,那么有些事其实本质上就与你无关了。比如,本人从来没看过抖音,是根本没有意识到我可以去看看。(当然,前段时间做了一段时间的短视频编导,真的是必须下载抖音,但其实我还是没怎么看,干干净净。事实上也是半个月就辞了,觉得自己真的没法拍那些东西,我也认为有些东西多了真的不好,真的不好。我并非坚决否定其他任何人或某些事物,还是那句话,与“我”无关,我只是需要把握自己,目前我也绝无那么大的能力影响别人)还有去年,基本上没怎么用手机,尤其是社交媒体,沉寂了一年,远离社会,消失无踪,也没有打任何招呼,以致最后打开微信,成百上千条新消息,很多好朋友都在问,也在问对方,这人去哪了?还好嘛?我真的很抱歉,最后更是写下长文忏悔自己。而这次“行为艺术”之后,我删了一批人,剩一百来好友。我在长文前言里说得非常明白,有些渗人。朋友也说,你这不仅是在考验自己也是在考验别人。以前有过两次大批量删人的经历,也都会提前打招呼。我这人很不好,也很难与自己和解。
我并非提倡某些行为,也还是那句话,以往写一些涉及个人想法的文章都会提,大致是:以上所有,你没必要相信和认同(所以我不喜欢点赞嘛,点和被点。但并非完全不会,其实别太在意“点赞”一事就OK),你有你自己的想法。必须注意的是,当你觉得我说的某些话可能有些道理的时候,可得小心了,因为我的话可能正成为某种意识形态对你“询唤”,要不要“应答”这就是你的事儿了。我的建议是:不要随意应答,学会时刻存疑,多多思考!(那最后这句话,你要不要听呢?)
(27/06/2022 在旁人的提醒下重新审视自己)
假设有一个传统的汽车公司,汽车公司从开始研发,测试,生产制造,上市,售后等等一系列环节构成了汽车这个产品的生命周期,在这生命周期的每一步,都有庞杂的数据,而且所有的步骤都要被记录以方便后续的研究和改进。在公司开始研发前或者期间或者投放上市后,公司相关部门比如市场部会进行市场和用户调查,了解用户的需要跟反馈,以便提供更好的产品与服务,还有之后的改进。这是一个传统商品的开发过程。汽车公司希望开发出最好的产品,这样他们就可以获得更大的效益。这个过程大家通常比较熟悉而且听起来也是合情合理。
科技公司的产品也有类似的过程。一个很大差别在于用户几乎在产品还没成型,仅仅是测试的时候就被参与其中,用户与这个产品全部互动的数据都会被记录以作为产品研发与改进的基础。而这一差别会造成很多的问题,传统行业获取用户的数据往往基于问卷或者电话或者邮件等等,这些方式在用户回答时已经知道自己提供的信息会被用于该公司的产品研发,所以用户是知情且同意的。科技公司所记录与收集的数据发生在用户与产品交互的所有过程中,其实用户并不知情自己的数据会被用于该产品的开发,更不用说同意。同时传统产品所需要的用户信息往往比较公开,比如喜欢什么车型,几口人用等等,这些信息涉及到的私密性比较低。但是科技产品所需要的绝大多数是用户相对比较私密的信息,比如你搜索了什么,你对哪个人感兴趣等等。科技公司所涉及的用户的知情权与隐私权是一个已经浮出水面多年的法律与道德问题,各方力量斡旋多年在寻求解决方案。
这一系列过程在影片里被称为监控,而且为了使监控这一概念更具说服力,影片设计了一些场景,比如以人来模拟产品背后运作的过程,好像对每个用户都有一套设备来监视他做了什么看了什么,甚至于他在想什么。以影片中的模拟场景来看,这的确是监控,而且这非常吓人。但是以脸书每个月大约30亿的活跃用户来看,根本不可能会对于每个用户有一个团队来通过很多大屏幕来监视其一举一动,来揣测他的心思。所以这个比拟是失实而且夸张的,完全不符合纪录片的原则。同时揣测他人心思会涉及到猜对或者猜错,这一环节被渲染到所谓的背后的模型会精准预测到用户的心理,甚至去改变用户。换句话说用户赤裸地处在一个危机四伏的敌在暗他在明的毫无防备的世界里,随时可能为人鱼肉。假如剔除掉这些场景模拟,与传统产品的开发过程进行对比的话,其实所谓的监控本质就是记录和收集数据。记录与收集也让人很不舒服,因为这涉及到用户的知情权与隐私权,这都需要科技公司尊重,但这远没有被监控听起来那么让人不寒而栗。监控一词奠定了这个“纪录片”的基调,就是让人恐惧。为了让恐惧这一情绪可以更强烈,影片找了形形色色的人来讲述科技公司如何在做“人类期货”的交易。通常记录片为了公正客观,会采访众多不同角度的人,众多不同的观点相互碰撞的过程中就会暴露其中某一观点的局限与弊端,而这一局限可以被别的观点所解释和完善,同样这个观点的问题又会被别的观点修复等等。这样观众会看到一个比较完整的画面。
Netflix背后有一系列模型,这些模型计算着如何给潜在用户打广告,给用户推荐,以及让用户订阅等等。从这个层面来看,Netflix也是一家如这部影片中描述的科技公司。事实上,它就是一家科技公司,而且它还是一家顶尖科技公司。Netflix不同于其他科技公司的很大一点在于,其他科技公司作为一个平台,它的产品本身是不生产观点的,它的观点是来自于平台上不同用户的不同观点。但是Netflix是出产影片的,所以它是生产观点的,不止如此,它还在生产情绪。这部影片里Netflix的观点与情绪就是科技公司在监控你,而且这是非常可怕的。客观的记录被强调为主观的监控所以从一开始它就没有预留给用户自己思考的空间,而且在这个观点与情绪之外,这个影片作为Netflix的产品它并没有像其他平台一样引入多方的观点与情绪,给予用户自己判断的空间。相反地,Netflix深知恐惧和焦虑可以在用户中快速传播,从而成就它的产品,它反倒在利用这一点。所以Netflix在这个产品里站在道德制高点上抨击着其他科技公司的种种行为,而在暗处它其实在做着同样甚至更糟糕的事。
这不是《楚门的世界》,这是正在发生的现实。
如果说有什么东西占据着现代人生活的大部分时间,答案无疑是手机。
回想一下你每天会凝视着手中这个小小的机器多长时间?
日前发布的《2020中国网络视听发展研究报告》中显示,截至2020年6月,我国网络视听用户规模达9.01亿;短视频已成为用户“杀”时间的利器,短视频以人均单日110分钟的使用时长超越了即时通讯。
110分钟,将近2个小时。
这不是我们的错,因为刷手机实在太有趣了不是吗?
我们的注意力很容易被它吸引。
当我们购物时,它会主动向我们推荐迎合我们喜好的单品。
当我们观看有趣的视频图片时,它又会向我们推荐更多类似的内容。
这一切甚至让人觉得,哇哦,手机才是这个世界上最了解我的!
无论是和朋友吃饭时,还是在地铁上,我们总是习惯性打开手机重复着滑动、选择、滑动的动作。
但有些人也渐渐发现,自己总有一种时刻被监控的感觉。
有时在网上随意搜索的东西,甚至聊天时提到的东西,都会神奇地出现在平台推荐中。
一些网站还会向你推荐通讯录中的用户,同时也将你推荐给你通讯录中的人。
而注册时填写的个人信息,让这些平台对你更加如指掌了。
那么问题来了,究竟是我们在操作手机还是手机在控制我们?
这问题关乎一个经常被提起的热词:大数据。
尽管每个账号背后却都是活生生的人,在大数据中你可能只是一串数字。
你的言论、兴趣爱好、学历、住址甚至健康状况都成为了大数据海洋中的一部分。
大数据对我们个人信息的盗取,算法对我们的监控,使得平台更懂你,从而也可以更精准地影响你。
此外,社交媒体的使用,更是对人的心理健康有着不可忽视的影响。
刷手机的时间越长,是不是感觉更丧?更容易焦虑?
所以,问题到底出在哪儿?
最近Netflix再出佳作,围绕这个与我们每个人息息相关的主题拍摄了一部纪录片。
9月初上映的《监视资本主义:智能陷阱》大获好评,豆瓣评分8.6,被认为是今年网飞最好的纪录片。
今天我们就来看看这部纪录片为我们揭示出什么样被隐匿的真相。
导演: 杰夫·奥洛威斯基 编剧:戴维斯·库姆贝 / 维奇·柯蒂斯 / 杰夫·奥洛威斯基 主演:杰伦·拉尼尔 / 罗杰·麦克纳米 / 斯凯勒·吉桑多 首播: 2020-09-09 片场:94分钟
片中一群来自Facebook、Instagram、Youtube的前员工直面镜头现身说法,揭露了很多行业秘密。
让我们了解这些软件是如何借助大数据和人性来令人上瘾,从而控制用户。
片中有一句话相当发人深省:“如果你没有花钱买产品,那么你就是被卖的产品”。
然而,这话可能真不是危言耸听。
《智能陷阱》向我们每个人提出了一个很简单的问题:为什么这些社交 APP 都是免费的?为什么用户使用他们的产品却不用付钱?
只要你稍稍思考就能看清楚本质。
它们当然并不免费,是广告商在付钱。广告商为什么给这些公司付钱?
它们付钱来交换向你(用户)展示广告,所以用户本身就是卖给广告商的“产品”。
为此,网站需要更多的用户以及更长的使用时间。
因此,用户的行为开始被监视、被预测,然后被有目的地引导。
通过各种智能推荐算法,让人们的视野局限在它想你沉迷的领域里。
潜移默化改变人的行为和认知。
而对用户的预测就建立在大数据之上。
来自哈佛大学商学院的教授莎娜称这种数据积累逻辑为“监控资本主义”。
这种新型的信息资本主义模式,通过预测和修正人类的行为来获得收入并且控制市场。
换言之,你在网络上所做的一切都被监控着、被追踪着、被评估着。
具体到你停在哪一张图片上看了,看了多久。
这些都是大数据的一部分。
计算机通过这些数据做出预判我们行为的模型,拥有优秀模型的公司就赢了。
我们做过的所有事情、点击过的每一个地方、我们看过的所有视频、点赞过的所有内容,这些数据都会被用来建造一个越来越精确的模型。
有了这个模型,网站就能预判这个人的行为。
甚至能预判什么样的情感更能让你产生共鸣。
这一切都导致我们越来越离不开手机,除了睡觉,大多数时候我们都会不自觉地拿起手机。
如果手机离开我们一时半刻,我们就会感到无聊、焦虑。
只有两个行业把他们的客户叫做“使用者”:毒品和软件。
但这着实不能怪我们,因为就连互联网公司的管理者也难以抵挡这种吸引。
前Pinterest的总经理坦言,他在职时,即便回到家也无法停止刷Pinterest。尽管他有两个小孩需要他的关爱,但就是放不下手机。
有一天他突然感到莫大的讽刺:他白天去工作,就是为了构建一个把自己当猎物的东西。
放不下手机并不代表你自控力差,毕竟这世界上最聪明的一群人每天都在研究怎样让人成瘾。
在斯坦福“劝服技术实验室(Persuasive Technology Lab)”,学者们主要研究如何利用所知道的一切心理学知识来改变他人的行为。
很多硅谷的著名人物都曾是这个实验室的学员,其中也包括 Facebook、优步、推特、领英等公司负责用户增长的关键人物。
《监视资本主义:智能陷阱》用一家五口的故事,更好地演绎了这一切。
晚餐时,母亲提议大家都不玩手机,来一次面对面地交谈和安静的进餐。
于是她把所有人的手机,放进定时1小时后才能打开的盒子。
然而这顿晚餐显得有几分冷场,每个人都对对方缺乏耐心。
没多久,女儿就忍不住用锤子把箱子砸开,取出了手机。
立刻回到了社交网络的世界中。
小儿子的手机不小心被凿破,母亲许诺如果他可以一星期不用手机,就给他换最新款。然而才失去手机几个小时,他就开始感到空虚和坐立不安。
我们不禁要问,那些没有手机的时代,人们是如何生活?
据研究表明,进入互联网时代后,青少年焦虑、抑郁、自杀明显高于从前。
无论是点赞还是表示肯定的评论,都会使人获得一种多巴胺分泌带来的快感。
人可以从手上一个小机器获得被肯定的满足感,但同时也会更情绪化,更脆弱。
近十年来,美国少女自残与自杀率大幅升高。
统计数据显示,美国 15-19 岁女孩的自杀率比世纪初提高了 70%,而 10-14 岁女孩的自杀率增加了 151%。
1996年之后出生的孩子,是历史上第一代在初中开始使用社交媒体的人。
他们更不愿意冒险,拿到驾照的比率下降了,出去约会过的人数骤减。
整个一代人都更加焦虑、更加脆弱、更加抑郁。
很多人如此在意一个虚拟的“赞”,如此在意陌生人的评价,如此在意自己在网络世界的形象。
然而,我们真的需要在意一万个人怎么看我们吗?
我们真的需要每隔5分钟就获得一个表示认可的赞吗?
近年来网络暴力逼死人的新闻已经不绝于耳。
这些服务正在杀人,也导致人们自杀。
在美国,整容医生甚至发现一种新的病症:“图片分享畸形症”。
指的是年轻的患者想做整容手术,让自己看上去更接近滤镜自拍中的样子。
很多人已经逐渐失去了对真实世界的兴趣,更愿意活在网络上。
很多这种技术公司有三个主要目标:
1、参与度目标,增加你的使用时间,让你一直滑动屏幕;
2、增长目标,让你不断回来,尽可能多地邀请朋友;
3、广告目标,确保一切按照预期发展,公司尽可能地从广告上挣钱。
每一个目标都由一个算法驱动,算法的作用是决定给你展示什么,让数据上涨。
所以有人说躺着刷手机的肥宅生活是最自由的,殊不知此时的你也未必是真的自由。
此外算法还会根据你的喜好来判断你,并向你推送更多相关内容。
你越爱看什么,平台就给你推送什么。
久而久之,你经常见到的就是些类似的观点,仿佛你相信的这些就是世界通行的真理。
这在某种意义上也加深了你的偏见,假新闻和阴谋论因此得到更广泛的传播。
《智能陷阱》里提到地平说的例子就是很好的证明。
NBA 著名球星凯里·欧文曾公开表示他认为地球是平的,在遭到公众批评后他上节目道歉,称自己对地平说信以为真是因为在 YouTube 上看了很多阴谋论视频。
“你点进一个 YouTube 视频,就像掉进了一个兔子洞,”欧文说,“然后平台就会给你推荐更多的此类视频,慢慢的你就信了。”
虽说科技造福人类,然而事实可能没那么简单,社交媒体副作用大到已经无法忽视。
讽刺的是,即便是这些算法背后的工程师,也很难摆脱被算法操控的命运。
他们创造了这些,最终却不得不写个程序来帮自己戒网瘾。
整部影片的观感可谓触目惊心,但也并非全盘否定科技进步带来的好处。
它试图提醒人们重视对这个新兴世界的监督,以及立法层面的巨大缺失。
毕竟手机公司有无数关于你的敏感数据,我们必须保证他们不会利用这些数据做错的事。
近几年人们经常谈论未来的人工智能可能会毁灭人类,而事实上人工智能已经在运营着当今世界了。
它未必是《终结者》中的机器人,却是威力更大的神秘存在。
从20世纪60年代至今,计算机的处理能力已增长了万亿倍,我们身边没有任何其他东西以这个速率增长。
而作为人类,我们的大脑根本没有丝毫进化。
人类正在面对着百万年来不曾应对的局面:一个小小的屏幕背后的上千名工程师和超级计算机。
这个世界将会去往何方?人类可以扭转局面吗?
需要明白的是:我们是使用工具的人,绝不是工具操纵的对象。
也许“觉醒”,只是第一步。
*本文作者:RAMA
Netflix 的《监视资本主义:智能陷阱》(The Social Dilemma)很可能是近几个月全球最热门的纪录片。正如标题所示,此片瞄准社群平台(Facebook, Twitter, Instagram 等)以及背后的大公司,指出它们如何透过各种设计(包括算法)来让用户上瘾,不只在个人层面把隐私拿去兜售,更在社会层面让民主陷入危机。这部片汇集(或者说,整理)过去五年间各界对于社群平台的批评和反省,但这其实也意味着:它没有讲什么新东西。在这样了无新意的情况下,还能引起热潮和讨论,反而映照出我们一直以来的几个思考盲点。
首先,我们可以问:为什么一谈到社群平台的「操弄」,我们就觉得很可怕甚至十恶不赦?在我看来,我们之所以畏惧或反对操弄,是因为一个深埋脑海的既定观念:人生而自由——人类可以自由做决定。这也是十八世纪启蒙时代以来支撑现代社会的根本假设。问题是,这样的人类真的存在吗?不管是行为经济学,还是脑神经科学,都在逐步否定——即使还没完全否定——这种人类形象。手握热茶杯,待人接物就会比较温暖;读过关于老人的文章,走路就会不自觉变慢。人类太容易受到各种因素影响,而且多数时候我们并不自知。
影片提到,设计师使用「强化」的技巧来制作「用滑的」动态墙,让用户着迷到放不下手机。这个「强化」的原理,是心理学家 B. F. Skinner 发现的——他利用鸽子做了大量实验。如果社群媒体让人上瘾,那么这件事的启示很可能不是设计师有多邪恶,而是人类根本没有比鸽子高明多少。一直抱怨社群平台利用「人性弱点」其实效果不大,关键在于如果这些弱点根深蒂固,而且人类从未自由过,那么我们是不是应该要思考如何「正面利用」它?为什么我们不用同样的技巧,来让学生着迷于阅读、音乐、运动、或者艺术?
再来,我们可以问:为什么大家对于社群平台的运作原理这么惊讶?社群平台会收集使用者的喜好,以此为依据来调整或提供信息与广告,因此我们比较像产品而非顾客,这件事早已是老生常谈、甚至陈词滥调,但多数人仍然不知道,尤其是大量使用社群平台的青少年。这意味着,我们需要有针对「科技素养」的教育,但这种教育不是科普——科技素养要让学生了解的,不是手中科技运作的「原理」,而是设计的「逻辑」。
学生不需要知道手机里面的半导体组件、程序语言、或者薄膜技术,但要知道操作的各种机制是什么、还有开发和经营的经费从何而来。熟悉手中科技的设计逻辑,我们才能真正「使用」科技,才不会不知道可以关掉个人化广告、可以关闭位置追踪,或者连从哪里关都找不到。一旦知道社群平台只是重复喂养我们的喜好,我们就会知道「按赞」是在告诉算法「多给我一点」,那么为了维持信息健康,我们自然会更小心、甚至按反对意见「赞」。
最后,应该问:为什么我们这么担心社群平台正在摧毁民主?片中批评,社群平台正在制造「极化」(polarization),让抱持不同价值观的人群针锋相对、无法沟通。问题是,沟通是可能的吗?很多时候并非如此——只要想想你/妳是否成功说服你/妳的父母。换句话说,我们担心社群平台摧毁民主,是因为我们一向以为民主的核心是沟通、妥协、相互理解、达成共识,然而实际上,这可能是个误解,民主并非我们所想。
如同脸书总部的反对文(解释文)所言,极化现象早已存在许久,社群平台是非战之罪。根据政治理论家 Chantal Mouffe,政治的核心其实是对抗,而不是共识。简单来说,如果我们希望成为一个群体(我群),不可能没有边界,因此总是有「他群」存在——必定有人不同意我们,也必定有人被排除。换句话说,极化全然无法避免,社群平台只是让这种长期被我们忽视的政治核心暴露出来罢了。因此,民主不在于寻找共识,而在于鼓励和制度化非暴力的对抗。就此而言,显然问题不在社群平台加强极化,而在于我们需要重新理解和安排民主,才能安置早已无法回头的网络文化。
我不会说《监视资本主义:智能陷阱》不值得一看,毕竟对于许多人来说,这可能是第一次理解社群平台是怎么运作的。但我们确实应该深思,甚至反省,我们的不安与愤怒从何而来,究竟是这些社群平台的大公司太过邪恶,还是这些社群平台正在挑战我们习以为常的假设?很多人说看完这部电影感到绝望,但或许,希望的破灭,才是发现真正问题的开始。
* 原文刊载于《社技哲学.TECHNOSOPHY》博客。
中文翻译的标题线路很正确嘛
朋友圈已经关闭了好几年,也不用微博和fb的我感觉自己还是有点觉悟的。
一边抗拒一边沉迷,也是无解了。
能请到离职的脸书 谷歌 twitter高管或功能创始人来搞一部揭露社交APP之罪的纪录片确实牛逼!!看影片开头好多工程师已经在担心律师函了。 我们以为的AI危机(人工智能)是电影中类似机器人入侵的画面,其实,人类早已被AI奴役好几年了,它们以智能手机APP的面貌出现在我们生活中,吃掉我们的时间,夺取我们的注意力,令我轻信、空虚、偏执甚至被利用…… 就连创造出这些APP的工程师们——这个AI统治者的创造者们都承认有手机上瘾症。if you are not paying for the product, you are the product.You would not realize it's a Matrix if you Are in the Matrix.
影片翻译成”监视资本主义“太符合中国上层领导了,其实就是讲了社交网络怎样赚钱、怎样改变和监视用户、大数据统治的,其影响会延伸和触及到人性、进化、政治竞选等领域。但人类历史中的谎言、煽动、阴谋、阶级等现象,并不是网络时代就特有的,只是网络时代让这些现象具有更大规模、更快的反应而已,但不能把原罪归于网络。
在网飞纪录片序列中算不上惊艳,内容都能想得到,有个别地方倒是有启发。其实社交媒体不是重新发明了人性,只是顺应人性被发明出来。
某种existential crisis的压迫感沉重到可以将其归类恐怖片的程度:迫真humanity的一个至暗时刻。毋庸置疑新自由主义的放任默许了它们的野蛮生长。日渐两极化割裂的民主世界,中产的消亡,功绩社会里的精神暴力,抑郁及自杀率的攀升,ultra-right/left异军突起众多吊诡背后,总能追溯到科技巨头的鬼影。今年的BLM可谓一个高潮,空前的社会撕裂,内战的恐惧开始在北美大陆扩散,然而那种担忧早已经在太平洋对岸成为了现实,诸如废青和武统的呐喊此起彼伏,落入集权独裁手里的社交媒体正上演着数亿人的《楚门的世界》。
最讽刺的是你之所以能看到这部片子,多半也是因为它被网飞自己的大数据和算法推到了用户主页。这种感觉就像是有天迈克尔·贝跑出来拍了一部【电影艺术是如何被滥用CGI特效的好莱坞大片毁掉的】纪录片一样。
聚众吸牍哪家强 网飞找来这群人一个劲戳别人脊梁骨 没种把自己的5秒跳转下一个视频算进去
最后还是把问题还原到商业模式和经济上去了 也就是说 不是简单呼吁大家自己控制社交媒体的使用就可以解决根本问题的 不过很有意思的是… 看完片子之后 大家还是屁颠儿屁颠儿跑到社交媒体上来打分了😂 这和竞争关注的结果其实没有本质上的区别吧 人生而愚蠢...也是没办法的事
就提一个capitalism会死吗
我一直是更亲近Yuval Noal那种对社交网的防御心,最近他跟唐凤的对话中,唐女士更接近Bill Gates,她们对Code is law的信任是基于他们对科技的掌握,略傲慢的盲目。人类善于发明创造工具,却总是不能智慧的使用好它,socialmedia被创造出时的工具属性越来越模糊,连接一切变成绑定一切,我们都在失去个人专注力的同时被训练的自动贡献出时间来替科技公司创造价值。见惯了友邻放弃包容,讽刺刻薄的针对陌生人,哪怕对方只是没把咖啡馆当图书馆对待产生噪音。我们大部分人,都忘了我们用社交网的初衷了,我们只是停不下来了,这不对,要自省。
“在整个人类历史中,每次有事情变好,都是因为有人站出来说:“这太蠢了,我们可以做的更好”。是批判者驱动了改进,他们才是真正的乐观主义者。我们正飞速走向毁灭,需要一个奇迹才能让我们回头,这个奇迹就是集体意识,再足够的公众压力出现之前,这台机器是绝对不会回头的。”
“是批判者推动社会变得更好,批判者才是真正的乐观主义者。”
通过海量的数据加上对用户个体的行为记录,最终用户个体不再特殊。你的行为可以被预测,你的心理已被掌握,你已经无所遁形。在IT巨头面前,你只是一个可被盈利的工具。 --你以为你想买的东西其实是巨头想卖的东西,你想做的事情是巨头暗示你做的。下篇讲述 在网络环境中,虚假的信息传播的更快,其中人工智能的推荐起到了加速作用。 推荐系统的智能化是的信息发送方变得极化,同时是的接受的信息变得不再全面的。。。。
互联网是人类文明的硕果还是浩劫?这是一个问题。互联网发展太快,而互联网用户运用它的智慧却太慢。它几乎成为现代人剪不断的脐带,每个人都以为这根脐带为我们输送养料,却很少发现它也在吞噬我们的时间,消耗我们的生命。互联网背后是不断将我们异化的数据和图形,是将用户打造成韭菜的智能工具,而你我是它们手中的行货。尼采说,“在自己身上,克服这个时代。”然而,这多么困难。最有意思的是,看完这部纪录片后,我发布的信息也会成为互联网内容的一部分,不小心浪费了别人的时间。
三星半吧。这个片子一边谴责社交媒体蛊惑人心,一边也通过背景音,模拟场景,动画,拼命传输自己想传达的意思。有点讽刺
可能是今年 Netflix 最好的一部纪录片,无论是 have no clue 的大众还是互联网业内工作人员,都能从中得到新的启迪。一段虚构故事结合湾区大佬们和学者们的访谈形式也耳目一新。Just fucking watch this right now!另外好多差评真是男言之瘾重灾区…
突然觉得,我如果能活到八十岁,说不定可以亲眼看到这颗星球毁灭……
前半段谈的是个人的成瘾性,后半段谈到了对社会和政治的影响,甚至还提到了香港问题受到了推荐算法的影响,实在是强烈推荐的纪录片。推荐算法让人类看到更多他想看到的信息,而不是正确的信息;当算法没有被操纵的时候,假象会被传播和放大的更快,社会群体的分化会更严重;当被操纵的时候,它会成为比以往更高效的舆论控制工具。