“不去了,机票涨这么多,亏我那么信任你,天天看,越看越涨,辜负了我对你的期待。”
临近春节假期,社交媒体上出现了很多“决定取消出行计划”的留言。网友们买机票、订酒店、囤年货时还发现,有的线上平台会 “看人下菜碟”“同货不同价”。
不甘心被宰一刀的年轻人开始“反向驯化”大数据。有人说“哭穷”,就能刷到“便宜货”;有人说卸载APP后重装,或换个便宜手机就能抢到优惠券;还有不少人披上了“momo”的马甲,隐藏个人信息……
这些“以彼之道还施彼身”的做法真的有用吗?平台究竟是如何进行算法推荐的?当越来越多的人开始反抗大数据,他们反抗的到底是什么?
“反向驯化”大数据,可能吗?
徐英瑾:“大数据杀熟”就在你我身边
澎湃新闻记者曾做过一个测试,结果显示,不同品牌的手机购买同样商品时,由于手机本身的运行历史和数据存在差异,平台显示的商品价格可能会不一样。这一现象颠覆了我们对于买卖公平的常识认知。
以我作为普通消费者的日常体验来说,只要在网上搜索某些物品,与之相关的商品推荐便会立刻出现在手机上,这种情况屡见不鲜。更糟糕的是,我经常接到各种各样的诈骗电话,以至于我现在基本不接陌生来电。
至于我们为何会收到如此多的推荐,根本原因在于,所有推荐算法背后都是基于休谟式假设,即认为人类行为总是重复过去,人是习惯的动物。但人有时候是要追求新奇性的,算法对于怎样用新奇性来抓住大家的注意力,是没有能力的。
谭峰:电商平台的“杀熟”行为很难被彻底杜绝
对互联网平台而言,“大数据杀熟”是一种商业化运营手段。互联网平台通过手机设备端收集用户行为产生的各类消费数据,依据用户的浏览兴趣,以及与亲友、陌生人在网上的互动关系,对用户行为和个性展开分析,进而调整商品价格,或进行诱导性推荐,刺激用户消费。
在“大数据杀熟”之下,老用户优惠少、价格高,而新用户则能享受优惠。
为了规避大数据的影响,在面对新平台时,可以尽可能减少注册以及关联用户行为,或者使用不同的设备操作不同事务。比如,一台设备专门用于购买机票,另一台设备浏览小红书,以此减少用户行为数据的共享。
消费者通过自身行为,比如对自己不感兴趣的内容点击“不喜欢”、定期清空购物车等,可以在一定程度上影响算法。平台会据此调整算法工具,以适配用户的偏好变化。
但从长远角度出发,电商平台的杀熟行为很难被彻底杜绝,只能在短期内尽量降低其影响。
大部分手机APP,尤其是安卓手机上的APP,在安装或使用过程中常常会索要诸多权限,其中就可能包括录音权限,进而在后台进行声音收集。
至于收集到的声音信息是仅用于用户行为分析,还是会分享给第三方,这很难保证。不过,经过苹果等公司声明不会默认开启语音收集权限的智能手机,其应用大概率不会进行偷听行为。
除了应用算法,社交平台以及新媒体平台也会对内容筛选进行人为干预。每个平台都有自己的商业化路径和偏好,不完全依赖用户的个人行为或者群体行为。目前,国内外大厂都在内容审核方面投入了大量的人力和物力。
算法和大数据,为何叫人“又爱又恨”
徐英瑾:算法让你看不到世界的另一面,最后导致“脑腐化”
在原始的算法概念里面,算法和钱没有一点关系,但进入了大数据时代,我个人认为算法的含义已经发生了改变。以前算法是为了解决一个能够被清楚定义的数学问题,现在就是为了增加商家的利润。
以前的算法有关机器,现在的算法是机器和人类心理的某种共谋。而我们人类有一个特点,就是缺乏耐心。比如,在美国,TikTok超越Youtube赢得了更多市场,就是因为广大网友没有耐心看完一两个小时的节目,他们就爱刷短视频。所以,人类心智的某些特点和 TikTok的算法构成了某种共谋,最后促成了它在美国的相对成功。
不幸的是,现在这种相互作用在往消极的方向转变。很多心理学研究表明,沉迷于短视频的人,各种认知能力和学习成绩都在下降。我也发现,在教授大学生的过程中,同学们阅读长文本的能力耐心、一般的语文能力都在逐年下降,我认为短视频沉迷是一个很重要的原因。
最近有一个词“脑腐化”,它产生的机制是什么?人要聪明,就要有对话性,要有敞开性,要听不同的意见。但算法不会让你看到这个世界的另一面,这样一来,人的能力就没有机会得到锻炼,最后导致了脑腐化。
随着受众认知能力的下降,可能促使未来的算法进一步投喂类似的资料,使人继续或者更深入地困在信息茧房里。
最近我看了一份资料,全球16岁至64岁的网民,平均每天“黏”在网上的时间是6个多小时,美国人是7个多小时,而日本人只有3个小时。
所以,今天所说的算法是个开放的东西,它会和人类的心理、和一个国家的文化以及国民对于线上线下活动的看法产生微妙的互动。
今天我们面对的算法,是一个我们好像仅仅“知其然却不知其所以然”的技术工具,这是人类自瓦特改良蒸汽机以来从来没有发生过的事情,由此带来社会风险和伦理风险。
谭峰:大数据与算法涉及“公平”与“效率”的问题
算法并非新生事物,像如今热门的深度学习,其前提假设基于神经网络,而神经网络早在上世纪六七十年代第一波人工智能热潮时就已出现。但当时并未像现在这样蓬勃发展,我觉得主要原因在于数据积累不足。数据采集方式和维度受限,致使算法的有效性未能被充分激发。
算法的发展使我们对生活、社会以及客观规律有了全新的认识。比如,随着算法技术的不断演进,我们现在能够运用算法对生命体的行为和生物机制运行进行建模。这无疑为人类社会的发展积累了技术力量。
大数据和算法的应用程度,直接关联着“公平”与“效率”的平衡。毕竟,大型平台公司在科技与技术方面具有优势,获取数据的渠道更广、门槛更低。
如果对大数据和算法的管控过于严格,许多便民的APP、小程序等数字化应用可能就不会出现。在行业发展初期,会存在利用灰色地带数据进行商业化拓展与创新的情况。然而,如果对此完全不加约束或约束力度过弱、单纯追求效率,普通民众和消费者的生活习惯、购物习惯以及对社会舆论现象的认知,就极有可能被平台操控。
AI制图
徐英瑾:基于大数据的人工智能并非唯一的发展方向
平台的数据运作依赖于数据获取。放眼世界范围内,欧盟有一套内部数据管理法规,即GDPR(《通用数据保护条例》),对个人隐私监管要求颇高。然而,也正因欧盟监管严苛,其互联网发展速度也相对缓慢。
这便是典型的“鱼与熊掌不可兼得”的情况:若要保护隐私,互联网发展势必受到影响,毕竟当下大数据技术依赖海量数据支撑。
基于此,我对解决该问题的思路与多数人不同。毕竟大数据算法就像老虎,本性食肉,无法改变。因此,我主张发展小数据人工智能。
它是更像人类,人类做出决策的时候,不需要那么多数据。比如你要了解一个城市的经济情况,其实只要对这个城市的用电量、用煤量进行了解,就能够抓到关键性的数据。我现在就希望人工智能具有这种少量取样数据、利用自己的追因推理能力进行举一反三的能力。
作为哲学研究者,我常站在少数派立场反思问题。如今大数据如此火热,它是否就代表着通用人工智能发展的康庄大道?抑或只是人工智能发展历程中的“飞艇阶段”?我认为尚无定论。
谭峰:大数据时代下,个人隐私的界定与留存具有多样性
在当今时代,大数据的广泛应用在一定程度上加剧了人们的不安全感。随着对数据采集与使用机制加深了解,人们越发担忧自己的行为乃至思想是否在不知不觉中被他人所洞察、干预。
由此衍生出一个关键问题:在大数据的笼罩下,个人隐私究竟还能在多大程度上得以留存?
在我看来,隐私的界定具有相对性。例如,那些公开发布在网络上的行为与评论,显然不具备隐私属性。然而,人的内心世界往往是复杂多面的,网络行为和言论未必等同于现实生活中的表现。倘若人们更为关注自身在现实社会中的真实行为和想法,那这部分隐私在一定程度上仍有可能得到保护。
AI时代,如何不被算法“掌控”?
徐英瑾:养成长阅读习惯是对抗信息茧房的良药
推动算法朝着更好的方向发展,一方面,要对用户进行教育,不要沉浸在自己的认知中不断重复,这是在浪费时间。另一方面,要引导大厂或互联网巨头更多地关注长期利益,不能仅为了追求短期利益而采用“杀熟”这类手段,因为这会极大地损害消费者体验,引发消费者反制,还会降低平台的社会声誉。
对于普通人来说,如何摆脱信息茧房、更客观地认识世界?我有一个相对传统的建议,就是在网上要尽量阅读篇幅较长、论据充分的深度分析文章,养成长阅读的习惯,并以长阅读为荣。
就个体而言,在信息茧房日益严重的当下,我们能做的是进行自我认知和自我塑造。要有求知的欲望,渴望在复杂多变的社会中看到更多可能性,为自身发展创造更多机会,这样才能自觉抵制信息茧房。
所以,欲望先于行动,只有明确自己想成为什么样的人,才能决定突破信息茧房的程度。
谭峰:冲破信息茧房需要克服个人惰性
在当下平台算法的作用下,多数人难以摆脱信息茧房的束缚,这很大程度上源于人的惰性。平台往往会在短短15-30秒内,向用户呈现它们认为有趣的内容,从而让用户获得极大的满足感。
我们很少看到平台推荐议论文,大多数推送的内容是直接给出结论,而非提供充分的理由,情绪渲染类的内容更是备受欢迎,因为这类内容迎合了人的惰性。人的惰性就体现在希望以最小的付出获取最大的满足。平台应用算法的目标恰好与之契合,否则便难以留存用户。
所以,若想摆脱信息茧房,人们就需要克服自身惰性,比如广泛涉猎多渠道的信息和内容,并进行比对,分辨其中是事实陈述,还是观点表达或情绪宣泄。
不过,这对普通人而言要求过高,毕竟多数人浏览数字化平台内容只是为了放松,而非像上课一样进行批判性思考或深度推理。