《Eli Pariser: Beware online “filter bubbles” #TED#》上有82条评论

  1. 在这个TED之前我就已经体会到了社交网站和其他应用网站根据所谓的用户喜好给用户搜索提供的反馈和搜索结果有所差别的现象。当时觉得这样的按照兴趣和关键词所划分和提供的结果非常方便,但是后来在体验到方便之余却更加深刻的体会到了所谓的“信息过滤泡泡”给我们的互联网生活所带来的局限和不便。
    Pariser在视频也引用了埃里克·施密特的一句话:“要人们观看或消费一些在某种意义上并非为他们个性定制的东西,是很难的。”所以目前互联网网站和基于互联网的应用所普遍提供的这种按照兴趣和标签为用户提供的服务在很大程度上难以满足用户的真实需要,同时也无法体现出互联网网罗天下、包容万象的内涵,并且在很大程度上对用户的需求产生了局限性甚至是阻碍。Pariser在视频中提供的两个朋友针对关键词“埃及”所搜索显示的不同结果就产生很鲜明的对比,这种对比可以放在任何的互联网用户身上,如果基于算法和程序所提供的内容和用户的需求产生偏差而用户又全然不知的话,互联网提供的内容将会渐渐地左右用户的想法,这将是一件非常可怕的事儿,更严重的说,未来的设计程序将会控制人的想法,使人的想法按照程序的设定来进行。
    所以“信息过滤泡泡”在用户全然不知的情况下将不同的用户按照不同的分类划分到不同的泡泡中,这样温水煮青蛙的方式很难使人察觉也很难使人脱离它所带来的方便,但在媒体传播的历史进程中也有相类似的事情发生,所以我们必须发现并觉醒这种变化将给我们带来的后果,对用户个体来说,就是不要在“信息过滤泡泡”中失去自己的判断。

  2. 这场演讲主要讲了:随着网络公司努力根据我们个人喜好调整其服务(包括新闻和搜寻结果),将产生一个危险且意想不到的后果:我们被困在一个“过滤泡沫”中,而得不到可能挑战或扩展我们世界观的信息。Eli Pariser强烈批评,这最终将被证明对我们及民主产生负面影响。
    “但几个星期前,我请一群朋友Google‘埃及’这个字,并将他们所得结果的屏幕截图传送给我。这是我朋友Scott的屏幕截图,这是我朋友Daniel的屏幕截图,当你把它们放在一起,你甚至不必详读这些连结,就可以看出这两页有多么不同。但当你确实读了这些连结,这实在令人讶异。Daniel的第一页Google结果没有任何关于埃及的抗议活动,Scott的结果则满是这些,这是那时当日的大新闻,这就是搜寻结果如何变得不同。”可以说是这场演讲中最直接最典型的一个例子了。其实何止是Facebook,Google,雅虎。。。包括百度上“身边热搜”这样的主动推荐的功能,就是专门针对不同位置的人有所不同,甚至隔几千米就很不一样。
    首先我觉得这样的算法和功能的出现,本身是出于服务大众的目的,比如确实如果我们能更早的获得身边的信息肯定是一件很方便实用的事情,毕竟我们最关心最有用的还是身边的人和物。
    但是我们同时也不得不意识到,“信息过滤泡泡”确实是一个bug,我们“被屏蔽”掉了很多的信息,而没有选择权,而且这种选择不是有管理机构与人员造成,而是一种没有道德概念的计算机算法带来的。所以,我觉得为了更民主更广泛的社会环境和网络环境,确实需要改进相关的运营机制和算法,当然这应该会经历一个相当长的时间来探索和磨合。。。

  3. ted主要向我们讲述了“过滤泡泡”。
    事实上,过滤泡泡已经应用在了很多app上,例如LOFTER、澎湃新闻……当我们第一次打开这些app,总会弹出来各种各样的兴趣标签让我们选择,为我们定制了不同的个性化浏览页面。一方面,这种过滤确实能让我们最快捷,最直观的看到我们想看到的内容,但是从另一方面说,它也间接性的屏蔽了相当一部分信息,有悖互联网兼容万象的概念,甚至很多信息是在我们不知道的情况下就被筛选掉了,如果这样发展下去,这些算法很可能会完全左右我们能看到的内容,甚者,未来某一天,形形色色的“过滤泡泡”会左右我们的社会民主和社会进步。
    “过滤泡泡”在产生之初,是为了优化大家的互联网体验,也确实给大众带来了很多便利,但我们确实不能忽视“过滤泡泡”带来的弊端,一个从熟悉中构建的世界并没有什么好借鉴的,如果个性化太严重,它可能阻止我们在破除偏见经验中交流,也有可能阻碍我们对世界和我们自己认识的思考方式的改变。
    确保个性化避免这些陷阱,还不算太晚,就像ted结尾说的那样,让算法更加透明化,也是十分必要的。
    程一帆

  4. 关于“过滤泡泡”
    如Eli Pariser所说,这确实是一个非常隐形的难以察觉到的过滤机制。曾经用手机搜索出的结果,再用电脑搜索却无法查到,才对此产生疑问。但一般是不会察觉到这种“个性化定制”的过滤泡泡已经潜藏在各大搜索引擎和社交网站。
    滤泡泡“认为我们想要”的信息不等于“我们需要得到”的信息。在这个多元化的时代,我们也需要看到更多其他的观点、信息,而不是被局限于个性化的页面。当然通过筛选可以得到更贴合自己的页面,但我们也应该有权利自己操控信息的审核,而不是智能机器。

  5. (刚开始点开视频发现全是英文,觉得天呐难道只有我一个人听不懂吗?!然后很不甘心地去网易公开课里找到了这个视频叫做“伊莱·帕里泽:当心网上“过滤气泡”看了中文字幕版,然后点回来评论才发现 其实原来的视频就可以选择字幕啊……大概是刚看完书画完导图有点懵= =|||)
    举个不太恰当的栗子,生活中最明显的感受到这种过滤是淘宝的推荐,购买过一种产品就会不断被推荐类似的东西。但是如果是别的搜索引擎或是社交媒体的过滤,可能真的会带来很多不必要,会得到很多“信息垃圾”。通过数据只留下看起来我们“感兴趣”的东西也许并不是我们真正想要的。细密的算法创造出来的世界是生硬的,也是局限,我们需要听到不同的声音,这样才能够建立一个恰当的体系,跳出自己的惯有圈子,看到那些不常见的东西,才是真正的互联网的意义吧。

  6. 首先谢谢那位说字幕的同学,不然我也可能要去其他网站_(:з」∠)_说实话,我虽然知道类似淘宝京东这样的购物网站会根据以往点击等信息得知用户喜好然后进行推荐,没想到的是原来很多搜索引擎也有这样的设计。刚才查了一下我和舍友的百度“埃及”,是一样的,可能这种设计在中国还不多?不太了解,想去了解。“过滤泡”思细级恐。你永远不了解你想象之外的这个世界,可能这么说有点夸张,但这是我看完这期ted以后脑海中最先浮现的想法。

  7. 个性化的搜索结果或者新闻推送等,确实是快速找到自己兴趣相关内容的有效途径。然而人们总还是需要知道自己兴趣之外的东西,否则对这个社会的认识将会产生偏颇。并且有的网站点开时,里面会有一些跟之前搜索的东西相关的内容,既让我产生不安全感——我好像被人监视着。

  8. 信息过滤泡泡确实给我们提供了很多方便,我们可以更多的接触到我们感兴趣的信息,比如我们可以更加便捷的接触到与我们所学专业相关的信息。但是,生活在这种“泡泡”之中,就像是生活在一个牢笼里。我们接触不到其他的信息,我们活在一个由机器为我们打造的世界里。我们可以只看我们想看的,这是我们选择的权利,但网络不能只提供我们想看的,而过滤掉那些可能并不是我们感兴趣的却又重要的信息。我们可以选择,但网络不能替我们选择,这实际上是侵犯了我们自主选择的权利。与其生活在这种自欺欺人的“泡泡”里,我宁愿生活在一个真实的、多彩的现实世界。

  9. 信息过滤泡泡这个名词之前没有听说过,但是类似的事件我看到过也经历过。几年前的焦点访谈曾报道过一个大学生因为好奇在淘宝上搜索棺材,此后的将近一个月的时间里他的淘宝首页都在给他推荐各式各样的棺材。而且日常生活中的淘宝、网易新闻等都有针对用户个人的个性化定制推荐。这些行为给我们的生活的确带来了一定的便利。
    但就像是TED中所说的,我们的搜索引擎正用过滤器和算法为我们创造了一个世界。而我们就身在这样一个信息过滤的泡泡中,根据我们的浏览历史,计算机算法控制了信息的流通,只向泡泡中的我们输送它认为我们想要的信息,而泡泡里的我们看不到外面的世界,认为我们接收的信息就是世界的变化。这种个性化定制服务便利用户、增加用户的体验好感的初衷已经转变为蒙蔽用户双眼的实际效果。
    就像Pariser在TED最后提议的一样,个性化服务可以继续进行,但必须保证提供的不仅仅是“相关”信息,还要有一些不喜欢但是很重要有挑战性的信息。算法需有职业道德,应该考虑用户的公民责任感和公共生活。算法也需要一些透明,让用户了解到其运行的规则,给予用户一定的管理权限,让互联网环境更加民主更加公正。

  10. 信息过滤泡泡是在互联网时代通过互联网过滤器推断出用户喜欢、关注或类似的东西。这种信息的过滤筛选基于每个人的“喜好”并提供相应的服务。不可否认,信息过滤泡泡有时候的确能够帮助我们减少获取一些信息的步骤与时间成本,但是这可能会使人坠入它的“陷阱”,有时候可能我需要的信息不同于根据我所谓的“喜好”所筛选呈现出来的信息,相反如果我需要看到的是另一面的信息,这样的检索内容将会让人大失所望。而且这种信息过滤一定程度上很像是个性的放大,以及个性在互联网上的反馈,过滤他人的个性,一味放大自己的个性并不能改进人与人的沟通交流,而沟通交流很大程度上依赖于信息交换。

  11. Eli认为互联网神通广大,个性化推荐让人大呼过瘾,但是却产生了弊端,这种个性定制的标准本身存在着问题,人们想要看什么,互联网会送上什么,好比,一个人喜欢吃冰淇淋,它就会每天做一份冰淇淋,但是只吃冰淇淋会牙疼。同样,根据喜好推荐容易让我们接受的信息趋于片面,其实,互联网的发展方向更应该人性化,智能不代表人性,它的定制标准更应注重人需要什么,而不只是逢迎市场,考虑人们喜欢什么。

  12. 每个网站都在尝试更加了解每个人,我们喜欢什么,我们对什么感兴趣,然后尝试向每个人呈现他们喜欢的内容,从而提高效率,提高满意度。结果是,我们所看到的、了解到的内容,便是种种网站、种种app过滤后的、它们认为我们感兴趣内容。但是,我们需要了解的,并不只是这些。泡泡外的内容,或许让我们觉得没那么有趣,但是仍然是我们所需要了解的。

  13. 看完视频以后 我对信息过滤泡泡第一个最直观的反应就是淘宝网(不知道对不对)在我手机上 用淘宝搜索同一件关键词商品 出来在首页的 可能是我曾经关注过的店铺 或商品 排在前面的都是符合我自己所喜爱风格的商品 而用我妈妈的手机搜索 出来的是偏向老年化的物品 基本上不同的人用各自的手机 搜索同一件商品的关键词 出现在首页的商品风格各异 但是却是符合搜索人审美偏好的物品 这极大方便了使用者的体验 也在一定程度上刺激了消费 为消费注入动力
    从某种程度上来说 信息过滤泡泡为互联网的发展和信息的交流提供了动力 信息过滤泡泡关注的是我们所喜爱的东西 并试图推断出来 在互联网生活中 各式各样的搜索引擎为我们每个人量身订造了一个强大 全面的个人信息库 利用这个信息库 商家可以更加准确的了解用户的喜爱 创造更多的经济价值 例如百度搜索引擎 当我们曾经多次搜索过同一内容时 页面的两侧会出现与之相关的广告信息 相比撒大网捕鱼的广泛投放 这种广告更具有针对性 更能快捷找到消费者和用户群体
    不过 生活在一个泡泡中是否也有弊端? 一切都留给自己的设备来处理 个性化
    过滤器服务成了一种无形的自动宣传工具 将自己的想法灌输给我们自己 放大我们对所熟悉的东西的愿望和期待 导致我们可能无法接触新鲜的事物 自我封闭在一个熟悉的小圈子中 无法激发新的兴趣和爱好 可以肯定 一个从熟悉中构建的世界是没有什么可借鉴的 如果个性化太严重 它可能阻止我们在头脑风暴 破除偏见经验中交流 也有可能阻碍我们对世界和我们自己认识的思考方式的改变 换种角度来说 我们无形之中接受着来自搜索引擎的各种信息灌输 但是这些信息无法保证都是有益的 我们要自主的进行筛选

  14. 最近一段时间伴随“大数据”出现的就是“个性化”,在中国最显著的就是体现在淘宝购物上,每次首页每次下拉都能看见淘宝为你订做的购物清单或者推荐好物。或者在微博的热门推荐,时不时出现在你首页上的广告,都是经过了无数计算。在中国虽然互联网搜索还没有达到这样的程度,但是仍然,每一次点击每一次搜索每一条链接都是你的印记。
    我曾经为了宣传买过微博推广,申请页面上真的会出现你希望推广的内容分区,反过来讲,其实某些时候你的账户就已经被微博打上了标签。你是个追星族,你是个二次元,你是个美剧粉或者是个愤青,分门别类。于是出现在你首页的东西也都大部分和你心意。
    我并不太清楚这出现在日常中算不算件好事或者像主讲人所说那样劣势过重。因为这样的过滤确实不可否认的为我的生活带来了便利——当然,在搜索引擎中又是另一说——至少在淘宝微博上,不管时候误还是看一些热门,都是适合我并且让我轻松的。
    可是牵扯到搜索引擎,它又过于友善了,可能我想要找的东西并非是我喜欢看到的,而它就这样过滤掉了,反而更可能增添麻烦。或者它呈现出的一切都是我们希望看到的,那是不是我们救护因此忽视某些真实呢?
    某些时候,这样的过滤给我的感觉就像是一个过度溺爱孩子的母亲,她顺从着孩子的一切把那些孩子乐于见到的事物奉上,而其实是怎样的,而这样做到底正确与否,却又很难定论了。

  15. 看完这个视频,我首先觉得它有一种悲哀感,就像教育中常说的溺爱一样,用户喜欢什么就去迎合他们的个人爱好,向用户输送他想看到的那部分的信息,让用户对世界的了解仅仅局限于一个相对十分稳定的圈子,形成以用户为中心的一个小型世界。现在绝大多数网站都采取了推荐算法,比如亚马逊上的图书推荐也是基于用户群体的兴趣相近。推荐算法虽然为用户打造了一个专属的个性化世界,便于用户找到同好或圈子里的有用信息,但同时束缚了用户本身信息量向外的拓展,就像Pariser说的,对我们自身世界观价值观等的发展是有害的,甚至对民主也是有害的。

    另外,这也是当代创新的因素相对于上个世纪来说显得不那么明显的一个原因,人们获取信息的渠道被无意间无形中堵塞而人们还不自知,局限于固有的信息圈和同类信息中无法拓展向新的领域,减少了信息融合的产物,就像艺术家只关注和接收艺术相关
    的信息,而从不关注科技、政治之类的话题,他的创作就受到题材上或者灵感的限制。

    因此我认为,适当的兴趣推荐是必要的,无形之间的信息过滤就显得专制了许多,如果任由其发展,极端地来说有可能会造成重回中世纪的可怕局面,因此适当的时候需要相关法律来约束推荐算法的不当使用。

  16. 我们在这个选择极大丰富的时代,人们却仿佛面临着选择越来越少的困惑。其实不然,我们从来都是生活在泡泡里,人们不能全知全能。对比历史,我们已经有了相当大的进步。能够接触自己喜欢的东西,了解关于它更多的信息、不断深入的研究,我想这是互联网时代给予我们的馈赠。信息之间无法完成绝对的平等,被偏爱的总会拥有更多特权,被放弃的则会慢慢遗忘。过滤泡泡正是起到了这样一个筛选的作用。
    人们很难将筛选信息的权力完全交给算法,同样,也不能安心完全交给工作人员。他们渴望“合理膳食”,需要透明化流程才能够吃的安心;却每天食用着“垃圾食品”享受着精神上的欢愉。这种“挑食”会导致极端个人主义和思想固化,因此我们要做出改变;使网民获取更多的信息【少量、温和的不同观点】,提升网民素质和企业政府管理能力。
    我想这是一个“全民近视”的信息时代,过滤泡泡是不能缺少的眼镜,看的更多更远更全面是我们努力的方向。不要因为度数不合适的眼镜迷失方向,前行的道路始终在脚下。

  17. 这个演讲说明了关于网络信息个性化定制的弊端。
    信息个性化其实很早以前就已经出现,甚至是作为一些网站的卖点存在。比如lofter,它就是打着让你找到你的兴趣圈子所存在的,因此这种个性化的,给你贴上标签的信息过滤难以避免。
    但是这个演讲里面还提到了一个事情,就是人是灵活的,我可能80%的时间都在看文学,但我也有20%的时间可能会想要看看国际时政、娱乐、时尚等等。单从兴趣口味来过滤信息的弊端非常大,这会直接导致信息的不平衡,包括其中所谈到的“真正的民主”,比如你是个保守派,你就完全有可能因为你经常获取的信息的不同去选择支持希拉里还是川普。听上去这有点像幕后黑手掌控的世界,但是实际上这都是不可控的,没有人在掌握,仅仅是一个好意的设置导致了这种结果。

  18. 我认为“信息过滤泡泡”是一种算法机制,后台通过大数据观察我们每个人平时爱看的内容和方向,来给我们推送或者在我们搜索时出现与我们平时感兴趣类似的内容。我认为我们每个人都身处这种泡泡之中,这是互联网公司为了获得更多点击量和用户使用量所使用的手段,但是它却让我们每个人在互联网处在自己的一个小世界而对外在世界不了解。
    虽然存在种种壁垒,但我认为我们也许也有方法可以打破,那就是利用这种机制,让算法以为我们喜欢那些我们不喜欢的东西(我们平常不经常搜索的东西),进而获得那些方面的推送。举个例子,虽然可能不太贴合,但我认为可以生动一点。比如我剪辑一个视频,然后需要一个壮阔的背景音乐,但我平常根本不听这种类型的纯音乐,我也不知道太多这方面的音乐。于是我就可以先搜索类似这个要求的音乐,然后不断点击给我推送的音乐,这种算法会让我听到的音乐慢慢接近我想要的。最后,列表里面就都是“壮阔类型的纯音乐”了,我挑选的余地也大大增加了。这是我之前试过的利用这种算法机制来得到自己想要的经历。
    当然了,我认为这种让算法以为我们喜欢我们不喜欢的东西进而获得那些推送我认为是一种很低效的解决方法,最好的解决方法还是应该从本质上解决,就像视频里所说的,让我们看到内容不应该是代码所干的事,程序员应该介入其中或者优化这个代码,让每个人可以在互联网中不是一个个孤岛,而是可以有机会去感受和了解这个多元的世界。

  19. 互联网的信息过滤,一方面成功的为用户定制了个性化的信息,另一方面屏蔽了很多“有意义”的信息。对于淘宝、lofter之类的网站来说,信息过滤无疑是有益处的,可以让用户快速找到自己感兴趣的东西,尽量少看到没兴趣的东西。但是如果这种现象无处不在,就会在一定程度上影响人对时事消息的获取和判断,平台获得了决定是否让一件事被人们知道的权力,虽然更多时候这种权力的行使者只是一些算法。
    演讲者认为这种现象的弊端在于1、算法不能保证信息的平衡。2、被“个性化”的用户本身很难介入信息过滤的过程。同时演讲者举了人类小编筛选信息的例子,但是机器算法的产生就是对人类小编一种更廉价和高效的替代。现在是一种一个新事物没有限制的发展随后跑偏而后亟待规范限制的阶段。
    随着现在的信息量越来越大,一些筛选推荐的算法是必要的,很多时候人们打开微博只是想刷一刷,没有特定想搜索的内容。我认为应该对不同种类的信息有区别对待,就像大学生可以选自己感兴趣的课和必修课。

  20. “信息过滤泡泡”即网络公司运用推荐算法对用户搜索、浏览的内容进行“个性化定制”的现象。
    算法将用户较少或可能不会关注的信息过滤掉而仅展示用户较多关注的内容,这确实使我们使用这些app、浏览网页时更加高效——我们可以第一时间看到我们感兴趣的人和事,在茫茫知识海洋中寻找信息所需要的时间被大大缩减了。
    然而看似贴心的过滤也带来了不容忽视的副作用,它使我们每个人都困在了一个个封闭的、个人的网络空间里。这一现象在现今我们的生活中已经屡见不鲜,我们甚至可以明显的感受到我们正被困在这样的泡泡中——在淘宝app中搜索一种商品后同类商品大量出现在推荐页;知乎推荐页里的问题好像总是关于之前浏览过的那几个话题…久而久之,群体极化现象会加剧——我们只能看到我们赞同的观点而与我们观点不同的内容被屏蔽掉,这让我们更相信自己的观点,从而采取更极端的立场。互联网这个原本民主的、信息自由流动的平台反而逐渐限制了人们的视野,阻碍了多元化观点的交流,有时也会蒙蔽事情的真相。
    而打破这样的壁垒,我认为正如演讲者Eli Pariser所说:“平台管理者应当确保这些算法有一定的透明,使人们能了解些那些决定什么能够通过我们的过滤器的运行规则。”平台作为算法的设计者、信息流动的管理者,应该对此肩负起主要的责任,让算法更加透明。同时,为了在用户更好的长期留存与信息自由流动之间找到一个合适的平衡点,内容服务商就势必要不断探索用户的内容兴趣偏好、了解用户的观点偏好,去更好的迎合用户不断拓展的兴趣认知、提供更多用户讨论和互动碰撞的空间,也需要更多的去考虑到公共生活和公民责任的重要性。

  21. “过滤气泡”让我们不再能够通过互联网看到整个世界、连接所有人,我们的视角因为精准的算法而变得越来越狭窄,越来越单一,我们在互联网上遇到的人越来越贴合我们的现有的取向,社交网络渐渐囿于更小的圈子。个性化推荐看上去似乎让我们可以更快找到与兴趣贴合的的内容和用户,我们的偏好、兴趣、审美影响着算法的精准推荐,而算法的推荐也正在潜移默化地塑造着我们。就像Eli Pariser所说的那样,改革派的他在精准算法的作用下难以看到保守派的言论,这极有可能会隐性地、缓慢地影响他的政治观点,非人工的、冷冰冰的技术、算法,正在影响着我们成为怎样的人。Eli Pariser提到用户应该拥有“管理权限”,这样我们可以决定什么信息可以通过,什么信息不能通过,可以避免垃圾信息,我们如今可以选择的“不感兴趣”,是否属于“管理权限”,但这样是否也会让算法推荐更加精准、狭窄呢?Eli Pariser也提醒了我们应当了解过滤器的运行规则,算法也应担负道德责任,先进技术不应成为阻隔我们和更广阔、多元世界的高墙。前一段听戴锦华老师的讲座,她提议我们可以多主动检索,而非被动接受算法推荐,但Eli Pariser的演讲中展示搜索出来的结果居然也是算法的个性化定制了……太可怕了……

  22. Eli Pariser所提到的”过滤泡泡”并非新鲜的概念,我们都知道当今互联网上的各类社区都或多或少存在一些个性化定制的推送算法。这种机制也经常作为一种正面积极的功能出现在一些社区的宣传广告中。然而似乎极少有人看到其负面作用,正如Eli Pariser所言,你无法决定自己“不看什么”。我们在算法的过滤之下,被动的住进了信息茧房。
    有人或许会反驳,认为这种个性化定制的算法本身就是基于个人的用户习惯进行运作的,而本身不看某些自己本就不愿意看的内容也不会有什么负面影响。然而,我们或许应当思考一下,我们自身的习惯和需求是由谁定义的? 是由社区定义的吗? 显然不是也不应该是。只有我们自己能够定义自己的需求。正如Eli Pariser所言,社交媒体至少应该给我们一些控制权,让我们决定哪些内容能够过滤而哪些不能。另外,被动的不看自己不愿看的内容,可能造成比我们想象中更严重的后果,例如,脸书基于Eli Pariser本人的改革派身份而”编辑”掉了那些保守派的用户,这其实直接导致了Eli Pariser完全无法看到保守派的观点,而只能看到改革派的言论,那么他就有可能无法对二者进行比较,他的政治倾向可能在潜移默化中变得更加激进,他甚至可能认为改革派观点已经是社会主流,大势所趋,因为他只能在网上看到改革派。
    Eli Pariser最后提到了解决方案,即将控制权交给用户,事实上我对此并不持乐观态度。这些互联网社区是商业化的,运营者首要考虑的经济效益。为了提高用户粘性,他们大概率不会抛弃这种机制,因为它满足了表面上的用户需求,而大多数用户确实只希望看到自己想看的。

  23. “信息过滤泡泡”是指一些互联网公司,基于大数据技术与算法程序,根据用户的所在地区、使用时间和浏览内容生成用户习惯,通过算法为用户创造个性化界面体验。
    如今互联网时代、大数据时代,大数据技术是一个不可或缺的技术,大多数地方都运用着大数据,如疫情时期,疫情期间个人在14天期间的出行路线,是否经过高中风险地区;各地区确诊人数、治愈人数等;学生上网课时也会给你匹配你所感兴趣的学习内容。现在很多网站、应用软件都会根据大数据用算法为你推荐你感兴趣的内容。像抖音,它直接单独列出了一个导航栏就是推荐,而且一般你打开默认的界面就是推荐界面,它会根据你所点赞或者下载的视频,或者是“驻足”观看时间比较长的视频的类型为你推荐同类型的视频,也会根据你看那个博主的视频比较多,即是你没有关注她它也会一直跟你推荐,我认为这就是运用了一定的算法,把我们用户圈定在各自的泡泡中。让我们只能接收自己的所感兴趣的东西,接收自己所赞同的观点,让我们只局限于一个单色单调的世界。互联网为我们带来了多彩的世界的同时,随着技术的不断发展,“信息过滤泡泡”的出现,又再次让我们回到了单调的世界。我们现在都处于“信息过滤泡泡”中。
    如何打破这个壁垒呢?互联网中运用算法本身是好的,可以为自己带来更多的观众,但是不能一味用算法推荐给用户们他们感兴趣的内容,要根据大数据所收集到的用户的赞成观点,推荐一些与之相对的观点,只要没有涉及到绝对的三观的错误,都应该让用户接收一些不同的观点。这些网络平台公司的设计者及运行着应该肩负起这个打破信息过滤泡泡壁垒的责任,平衡用户的习惯体验和信息多样化和丰富化体验。而且一些信息多样化传播的传媒账号应该进行一些强制性的推荐,就像社会新闻和国家新闻这种新闻类媒体,实时出现在信息气泡中,就像如今抖音、微博、微信等都有一些新闻推送,即是用户习惯没有新闻类,但他会有推送,让我们了解社会事件,国家发展等。

  24. “过滤泡沫“指互联网用户受网络内容算法编辑的影响,其信息环境越来越个人化的现象。Eli Pariser提出这个概念,让听众不由自主去反省、去思考自己所处的网络空间是否是由算法和”守门人“即编辑者搭建出来的一个“密不透风”的气泡。这个过滤气泡会由编辑者的代码将用户的兴趣话题聚合,同时渐渐剔除用户不感兴趣的声音。随着气泡内容趋于稳定,每个用户虽然同处一个网络空间,但所见内容却大不相同,形成了“孤立的气泡宇宙“。而这样的隐形的过滤规则弊端是用户不会思考的,造成一系列对人的影响更是潜移默化的。
    我认为网络是很好的连接不同的思维、不同的观点的媒介,它给予每个用户接触更广阔的世界的窗户。然而过滤泡沫的存在让这样的窗口缩小再缩小,最终只聚焦于某个点,我认为这就失去了网络广阔的优点。诚然,在过滤气泡里冲浪是愉快且上瘾的,但就如Eli Pariser所说,我们失去了了解其他观点的机会,失去了成为自己想要成为的人的渠道,反而在目前的视野里沉浸的愈发深入。
    孤立在个性化的网络中,人的思维和视野都是局限的。我认为如今网络里常见的激烈的矛盾都是因双方长期接受一种声音的熏陶所起。所有用户都以为自己所见即是世界,长此以往是在消磨人的同理心、宽容度。也许Eli Pariser对互联网从业者提倡道德责任也是从这个角度出发。
    我认为作为普通的网络用户,在了解各式各样的算法后需要保持自己的辨别能力。毕竟在当今网络如此庞大的信息流中对所有信息一并接受是不可能的,客观上我们利用算法节省时间(这也是我认为算法是必要的原因)。拒绝沉溺、保留对陌生事物的好奇心和宽容则是我们突破过滤泡沫的方法。

  25. 当科技取代人本身可以做的事情的时候,人就已经被操纵了。我们浏览,依据当时的需要和兴趣去选择信息的过程,算法替代观察、思索、筛选的过程,移除了思考,事情就不是我们“想”要的了。当需求被剥离了,其实浏览这个过程也无意义。“异化”被反复的提起,“异化”本身却也成为了一个制造异化的产物,非常黑色幽默。此外,当数据监测越来越灰色地去侵蚀我们的空间,从七八年前的历史记录小广告,到现在的输入法词频记录、手机连接信息记录等等的东西,这种侵蚀的进程被加速到了无以复加的地步。无论我们将制造着一切的那只手标签为什么,某种绝对存在似乎正不断被制造着。这个过程早已逾越了呈现当代人的需要,节省时间这一类堂而皇之的名词。
    好在,这个过程也让人们逐渐开始思考如何重新获得自己的控制权了。希望每一个人的每一次点击都是有着先入的意识的,意识到自己的一次手指发力关联到什么,至少有去意识的意识,就能改变一些东西。

  26. “过滤泡泡”让我想起了《1984》中集权制度的国家为了封闭人们的思想,控制媒介(报纸、广播)的传播内容,以此改写历史。在篡改的历史中,他们永远是和平民主的象征,人们对此深信不疑。那么在当今的大数据时代,当权者(国家、网络运营商)只要愿意,就完全可以制造这样一个社会。“过滤泡泡”的功能机制与《1984》中集权国家控制思想的手段完全一致,只是目的不同罢了。
    另外,我不认为大数据分析并提供用户感兴趣的内容是对该用户热爱的领域的促进,相反,这激发了(有好奇心和上进心的)用户探索自己感兴趣以外的领域的欲望,当然该用户要意识到网络空间具有“过滤泡泡”这个东西。因为人的欲望是在限制中产生的,欲望又是动力的主要来源,在这些用户发现自己处于一个封闭的空间时,他感受到限制,随后产生欲望跳出封闭的空间,探索未知领域。现在我有个感受就是,对于那些容易获取的碎片化信息提不起兴趣,必须强迫自己阅读才能读进去。但如果我辛辛苦苦找一部电影或者读一本书籍,就会很快投入进去。
    如果让我提出打破“过滤泡泡”这一界限的方法,还得从人的内心出发,保持探索未知的欲望,具有这一点,就可以把“过滤泡泡”变成一个促进的动力;当,对于那些无所谓的人,“过滤泡泡”帮他们筛选出不感兴趣的内容,也算是有用。

  27. 我认为技术无罪,算法本身是无辜的,问题的关键在于使用算法的是谁,他们的目的是什么。对于商业公司如Facebook, Google来说,他们是被单一目标:盈利所引导的,相关性高的内容用户爱看,用户能为公司带来源源不断的浏览、点击和行为数据,那公司就没有必要出于良心,开发更符合道德和公共责任的算法。

    对于用户来说,我们以为自己活在全知的信息世界中,但实际上,它被更精致、更强大的游戏规则设定,让我们对自己失去了什么全然无知。我们以为大家活在同一个世界,实际上每人看到的世界截然不同。

    我最强烈地一次感受到自己与主流的割裂,是在2019饭圈女孩出征事件中。打开知乎,大陆的官媒和舆论都在赞扬、支持征战香港“废青”的这种行为。但在我看来,这件事将政治娱乐化,人们狂热得可怕。我不禁怀疑,自己对事件认知是不是出错了?我了解到的是真实客观的事件真相吗?是否骂战两方的信息渠道本就不一致,而不自知?

    引用一段读到的话,“信息战也正是在这样的基础上,才如病毒一般有效:信息战的武器,并不是虚假内容本身,而是被它调动起愤怒或者厌倦情绪的我们每一个人。”

    不过,anyway,我觉得解决这个问题并不难——把定制开关的权利还给用户就好了。如果用户想跳出泡泡,重视信息的多元化和客观性,那就关掉个性化定制;如果用户想要轻松获取更对胃口的信息,那就使用个性化定制。用户已经意识到了信息茧房的问题,再结合近年来用户对隐私的重视,不少产品已经被要求加入了个性化定制的开关。我去看了一下,谷歌搜索的界面中就有详细的解释,用户信息是怎样在搜索过程中被使用的,谷歌也提供了很多选项,能让我自主定制自己的搜索结果。
    https://myactivity.google.com/privacyadvisor

  28. “过滤泡泡”的现象很普遍,大多数时候并不是很难以察觉。我们都能意识到淘宝的“猜你喜欢”猜的很准,视频软件使用过程也有所谓“凭本事刷到”的情况,但对于这些情况我们往往(至少我个人)不会很抗拒。信息偏食是人性使然,从传统媒体时代就有这种现象。
    这些大多是算法在商业娱乐领域的应用,但是像Pariser提到的,“不会再有标准的谷歌”,当思想意识层面和知识的内容分发也被算法变得“个性化”,就很病态且不易被用户察觉了。
    人们本身就有信息偏食的趋向,在传统媒体时代,面对同样的一份报纸,每个人都更倾向接触与自己原本立场相同的信息,但当主观的思维惰性使然变成被动地接收算法分发的内容(而且没意识到信息被过滤)的时候,就会对自己的观点越发偏执,思维模式逐渐固化。或许个人和群体更加极化,不同群体之间的冲突会更加严重?
    Pariser提出希望算法更加透明,用户能够参与过滤器的运行规则制定和管理权限。但是如果真的这样,过大程度削弱算法会不会造成信息爆炸冗余?而当用户自己能够自主决定过滤机制的时候,会不会因为本性依旧习惯信息偏食?——就像传统媒体时代,在一张包括各种信息的报纸上,只重点阅读自己感兴趣的板块那样?
    关于过滤泡泡,我的第一反应是 算法好可怕,但在网络信息时代,海量的信息如果没有算法的组织也很麻烦。或许并不是算法太“霸道”,而是它还不够成熟?当然,仅仅依赖算法的筛选并不可取,我们应当积极地自主筛选获取信息。至于,“互联网变成我们所梦想的那样”,可能还需要更多磨合吧。

  29. 算法推荐技术在某种程度上解决了信息泛滥的困扰,在当今信息爆炸的时代,个性化推荐相当于对用户进行“信息膳食”,他根据我们的行为和喜好为我们筛选信息搭配信息,使我们在网络获取信息的时候更加高效。
    但是,算法给我们带来了便利,也带来的恐慌。我们知道,高质量信息的其中一个重要保障,便是多样性。多样性是保证公众充分知情的前提。而算法的出现,正是成为了为我们定义喜好的“看门人”,随着算法不断地聚合和排除信息,最终形成一个稳定的,独立的网络空间,我们只能看见算法却认为我们想看到的东西,长期生活在缺乏多样性的信息的网络环境中,更会导向人们错误的认为“所见即世界”,甚至决定了我们如何思考,更加可怕的是,这样的坐井观天是完全被动且不自知的。
    我不禁发问,如果互联网的出现是打破封闭,将人们连接到一起,那算法的应用是否又将我们打回封闭之中呢?个人的喜好应该由个人定义才有意义,就像Eli Pariser所说,应该将让算法更加透明,将筛选信息的权利还回到用户的手中

  30. 我所认为的“信息过滤泡泡”,是指基于算法,通过收集用户的各种信息,筛选获得用户或相似群体良性反馈的声音,使用户得到“个人定制”的信息获得系统。“信息过滤气泡”是信息茧房的产物,它导致人们只看到他们想看的东西,听见想听的声音。如果放任其发展,最终会导致个体认知的固化和网络社会的冲突。
    对于现在的人们来说,“信息过滤气泡”是十分常见的现象。比方说,同样是打开b站,我的首页推荐大概率是是明日方舟相关创作和罗翔说刑法,但别人的可能就是油管搬运和鬼畜视频。从这种程度上来说,我们所看到的信息是与我们个人成强相关性的内容,这些内容也正是我们更易接受的内容。然后,我们会从只看得到我们想看的东西,变成只看我们想看的东西。原有的思维体系、价值体系逐渐根深蒂固,我们会变得不能接受与我们意见相左的内容,每个人与他人都隔了一层“可悲的厚障壁”。
    但是,个人乃至社会的发展进步,正需要不同观点的碰撞与交流。如果我们连其他的观点都无法接受甚至接收到,那么又谈何发展?所以说,这种信息壁垒是需要被打破的。
    依一隅之见,要打破信息壁垒,本质上是要对抗算法。尽管在初期,对信息的筛选是应对信息大爆炸、帮助人们处理多余信息的,也确实为人们提供了便利。但随着科技的发展,信息筛选出现了异化,我们需要对抗的正是这种异化的算法。
    从用户的角度来说,我们可以从两个方面着手。其一,是思想方面。我们需要去认识信息过滤泡泡及其影响,反思自身行为并做出改变。其二,是行动方面。搜索边界拓展。也即尝试使用不同引擎或平台查找信息。搜索方式转换。也就是说,我们应尽量多使用目的性搜索而非无目的性搜索。在无目的性搜索中,我们一味地跟着算法推荐浏览甚至思考,看似收获颇丰,实则停留原地还乐在其中。在有目的的搜索中,我们在一定程度上保持了个人的独立思考,我们所得到的更接近于我们实际需要的内容。
    从平台、软件乃至引擎的开发者的角度,我们应该更新算法,让它不仅围绕相关性,更有重要事件,不同的、乃至颠覆性的内容,有不同的观点。从消费算法的角度看,茧房效应强的“开采”(Exploit)式算法,虽然能快速得到用户的时间、关注,实现良好的短期收益,但从长期的使用体验乃至社会效益来看,是无法与探索用户新兴趣的“探索”(Explore)式算法相比的。
    但是,“探索”型算法也有着短期收益差的劣势,这是不符合资本的要求的。因此,从国家社会的角度,我们应该有更多的政策扶持那些鼓励用户探索新兴趣的平台、引擎。只有得到支持,“探索”式算法才能不仅仅是哄骗投资的噱头,能更好地发展、壮大、成为主流,进而影响人们获取信息的惯性。

    1. 看了大家的评论,我突然发现自己更多是基于一个被动接受“信息过滤泡泡”的角色来提出对信息消费者和开发者的建议的。而从主动的角度来讲,的确用户应该掌握是否进行信息筛选的控制权,而这种控制权的转移更能带来良性循环。

  31. 信息过滤泡泡是指由于我们每个人在互联网上不同的浏览习惯、兴趣取向、搜索历史、友邻等多个因素综合作用,在互联网公司的算法下被推荐量身制定的信息,被过滤“不感兴趣”的信息,在互联网接收信息的过程中被动地形成了一个相对封闭且专有的信息圈的效应。
    我们显然处于这种泡泡之中,在现代社会化媒体中对用户数据的分析画像和大数据推荐无处不在,甚至出现了不同平台之间共享用户信息的情况。信息过滤泡泡在如今的互联网使用过程中只会越来越封闭和坚固。
    类似或与之相关的概念还有“信息茧房”和“回音室效应”。
    信息茧房效应描述的是我们更倾向于选择那些我们感兴趣、令人愉悦的消息,而数字时代的个性化消费兴起,通过互联网算法对消费者所获得的信息进一步选择和过滤,最后我们就会处于一个蚕茧一样与不感兴趣的领域隔绝的茧房之中。
    回音室效应则是指,消息和信息在一个封闭的小圈子里会得到加强。在社区研究中,这也被称之为“文化部落主义”,这极大的削弱了网络上我们接受的信息的多元化。在这种环境下,我们会自然的将自己的想法认为是主流想法并不断加强认知,也容易走向极端。
    对于如何打破这种壁垒,我的看法是:
    1.作为媒体,对不同立场的信息尽可能的进行平衡报道,还原多维度与多立场的事件报道,不能为了“恰流量”而只报道单一的信息甚至假信息,过滤相反的声音。
    2.作为用户,一方面,我们需要提高我们的媒介素养,尽量不对某一单一平台的信息形成依赖,从多种渠道获取信息。对于一些社会实践或国际新闻也采取找信源和fact check的做法。另一方面,我们除了在互联网上获取信息以外也要多和身边的人进行交流。多了解不同的观点和看法,并对与自己相左的观点保持一定的耐心。
    3.作为软件的开发者,应该对用户的隐私保持更多的尊重。同时算法应该尽可能的透明,将“信息过滤气泡”这种效应曝光在用户眼前。正如Pariser所说,过滤怎样的信息的选择权应该在用户手中,而不是用户在使用过程中不自知地被剥夺了获取这些信息的权利。

  32. “信息过滤泡泡”指的便是,由机器、算法等决定我们在社交网络上能看到什么内容这一现象。“大数据”“推送”具有局限性,会使得我们逐渐断开与世界的连接,沉迷在自身的世界中,只能看到算法“觉得”我们想要看的东西,无法看到不同的观点、无法看到多元的生活等,导致我们的视野、思想有所限制。

    我们固然身处于这种泡泡中,推送算法等固然是限制每一个成功的网路所必备的内容,当然,所谓“信息茧房”,也是由这种便利所带来的。回到推送的形成之初,算法为的是用户可以在大量无分类的信息中能迅速看到自己喜爱的,从而达到使用户依赖使用的目的;然而随着网站间相互的竞争,愈精准、迅速抓住每一个独立个人用户喜好的算法胜出,被广泛地使用;最终,不同地方的数据相互连接,用户甚至可以在某一账号上看到自己在其他账号上的使用习惯的痕迹。

    “信息茧房”,我认为是比“信息过滤泡泡”要更合适的描述。所谓茧房,作茧自缚,一方面用户使用越活跃,推送的数据便越多,用户能看到的内容越局限越集中;另一方面,技术并不是形成信息茧房的全部,用户当然需要也喜爱这种便利,尤其是在对音乐等的审美、品味上,人们对其他审美的包容度一般较低,大数据甚至充当一种对主流审美观的反抗与遮蔽。当然,对于观点性、信息类的内容,“信息过滤泡泡”带来的更多是被限制的世界认识、片面的价值观与意识形态等。

    如何打破“壁垒”?首先,技术本身在进步。如有部分今应用人工智能来优化算法的尝试,利用对同一信息推送出现频率与占比的智能运算,来判断是否出现“信息茧房”,从而优化推送内容。同时,每个平台提供的功能可以优化自身推送的局限性,例如可以选择看分组看内容,当用户自主将不同类型多元的关注用户分到同一组中时,所看到的信息类型也自然会变得多元;如果用户设立不同分组,在不同类型的关注用户中来回切换,也同样可以得到多元化的信息。另外,针对如小红书等大数据推送非常敏感与明显的平台,用户往往会自主选择创建两个及以上账号,分别进行不同内容的查看,以便一个使用数据过多的账号影响搜索结果。

    最后,无论技术本身的进步如何,用户对“信息过滤泡泡”以及“信息茧房”等的认知与反思才是“打破’壁垒’”的关键,算法无法一夜间完成全部的优化,也不能够,但用户是灵活的,应当主动去想办法应对大数据推送等带来的弊端。

    1. 以便 打错了 是以防,以及,如有部分今 也打错了 是如今有部分

  33. 过滤气泡是指在互联网时代,互联网公司所开发出来的算法可以通过不同且多样的渠道去全方面的了解并收集用户的信息和偏好,筛选出用户所感兴趣的内容进行推送,而将所谓不感兴趣的信息过滤在外,在用户不自知的情况下搭建一个个性化“气泡”,而将其他多元的观念隔离在外。

    我们无可避免的置身于过滤气泡之中,不论是购物app的好物清单,或是音乐软件的个性化歌单,亦是新闻,社交和短视频软件,都运用了智能的算法推送。而我在使用小红书过程中,尤为深切的体会到算法的强大之处。很多时候我仅仅点击一次带有某话题的帖子,再次刷新便会有大量该话题的相关信息推送,效率之高速度之快让我惊叹不已。有时帖子不带任何关键词,但仍能被大数据所捕捉。但是其个性化推荐主要还是首页的千面,我和我妈妈搜索统一关键词出来的界面,上面的内容重合度还是比较高的。除了各个软件用不同的算法机制提高用户进入心流的速度时,在同一设备的不同软件,或是一个生态链下的不同设备间,用户的信息也是互通的。虽然每次使用app时,我都会关闭其在其他软件上收集信息的权限,但是当我在使用小红书时,一些兴趣话题仍会出现在知乎上,所以这过滤气泡,实际上是越来越大了。

    相关的概念还有“信息茧房”“回音室效应”“协同过滤”。这些概念或许在细节或者对象上有略微的区别,所表达的现象也是大同小异,即人们在一个封闭的传播环境下,过多的接收相近的观念信息,而出现了意见壁垒,导致同一信息被不断的加强,阻碍了多元声音的传播与发展。

    打破这种壁垒,需要使用者主动踏出自己的“兴趣圈”,可以通过主动搜索去获取不同方面的信息,而不是在首页不断的点击浏览过滤气泡所筛选打造出来的世界。同时,拓宽获取信息的渠道,例如使用多种平台,回归网页版,多看看书籍,纪录片。除浏览与自己意见相符的观念外,也注意关注不同导向的信息,当然,我们要随时保持批判心,多维度,全面的思考问题。对于开发者而言,除了筛选用户感兴趣的内容之外,也需持续优化算法,发现用户可能感兴趣的内容,扩展推送的范围。推送同类话题时,可以适当调整意见向左的观点的占比。在算法推送的同时,结合人工筛查,推送更加合理且优质的内容。

  34. 信息过滤泡泡互联网为我们打造的独一无二的信息世界,通过大数据分析我们上网的行为将我们“不感兴趣”的信息过滤删除,让我们生活在一个只“甜品”的信息网络圈。毫无疑问,我们正生活在信息过滤泡中,每个人都生成了一个独一无二的信息过滤泡泡。信息过滤泡泡也可以有很多名字,诸如个性化推荐、猜你喜欢、大数据屏蔽……本质上他们的目的都是为了让用户产生更多的点击兴趣,增加用户粘性,获取更多的流量。如Eli Pariser所说,当难以下咽的“蔬菜”消失的时候,充斥在我们的世界中的,可能就是成千上万的“垃圾食品”。垃圾食品成为一个人的主食似乎不足为奇,但可怕的是垃圾食品成为成千上万人的主食,成为当代人的精神鸦片。打破壁垒迫在眉睫,我们不可以将希望寄予在资本身上,因为资本渴望的是永无止境的消费。最直接的方式自然是寄希望于政府出台相关的政策,控制网络平台上一些严肃新闻的推送比率和推送位次,公民有义务了解这个世界上正在发生的与我们每个人的命运息息相关的信息。国家和社会要培养有公民道德的互联网从业人员,如果民众的呼声像潮水瞬息万变,我希望我们的行业中有人能像定海神针一样,保持理智,守护人性。对于大部分普通老百姓来说,他们在网络的表达很大程度上取决于他们在网络的所察,我相信一个理智的网络环境很大程度上会帮助用户更健康的思考、发言。
    打破壁垒需要一个双向的循环,人的改变带来环境的改变,环境的改变又影响人的行为。无论如何,人是具有主观能动性的一方,特别是受教育的高素质人群,这个时候难免有要提起让我有点悲观的二八定律——只有百分之二十的人能够掌握规则,大部分人都活在规则之下。不过,世界永远都属于更年轻的一代,当越来越多的觉醒的人占据未来的时候,规则也将由我们书写。
    唐雪柠师姐提出的方案也让我感觉很有意义,事实上,我们可以设置一个客观人视角的搜索引擎界面,这个界面上的推送排序完全取决于当下的客观时政热点,还原一个没有经过个性化过滤的信息世界。我们可以设置每次用户登录时会弹出是否开启客观人视角的选项,用户同意即可开启;或者在个性化页面开辟一个空间专门弹出当前客观新闻热点,亦或是同时开启左边是客观视角右边是个性化视角,既满足用户的个性化需求,也平衡“蔬菜”与“甜点”分量。
    事在人为,从我做起!

  35. 我理解的“信息过滤泡泡”包含两方面的含义:一方面侧重于技术层面,平台利用大数据与算法所构建的一系列过滤器式的算法架构;另一方面则侧重于受众和形式,指一个被过滤掉异质信息后的个性化网络环境,这一方面我认为是与“信息茧房”概念更为相像。

    与信息过滤泡泡相关联的概念还有“信息茧房”、“回音室效应”和“群体极化现象”,在上学期的数媒前沿专题课后我着重思考了关于个性化推荐算法体系的相关内容(当时做的思维导图:https://i.postimg.cc/ydVfPzCK/image.png),注意到“信息的协同过滤”是个性化算法中一个非常关键的环节也是导致海量信息被缩减、窄化直到生成量身定制的茧房、回音室的重要成因。关联到信息过滤泡泡,它们之间的影响是相辅相成和相互递进的,它们都受到互联网时代平台算法的推动,人们无论出于心理上主动地选择与自己相似的观点亦或被动地由于过滤泡泡的存在无法接收到外界的信息,都会逐步形成信息茧房,作茧自缚。两者相较,信息茧房更加侧重于一种用户选择的心理机制,而信息过滤泡泡更像是一种客观存在,会使信息茧房进一步加重。当信息茧房越来越厚重的时候,回音室效应就是不可避免的后果,并且由于缺乏多元的信息交流,人们都只看到了他们想看到的东西,内部认同感不断加强,便也更容易造成一方观点的绝对强势以及偏激的观念产生群体极化现象。这一个个后果也同样会继续反过来作用在用户的思维模式上,使之进一步片面化和单一化,信息过滤泡泡和信息茧房也愈发严重。

    我们固然身处在这样的信息过滤泡泡中,这是互联网时代不可避免的,但在我看来也不是一点好处都没有,个性化的推荐确实给我们的网络生活带来了一些“捷径”,以个人体验来看,在我减肥的过程中,如今我已经不需要去搜索减肥方法、减肥食谱、运动课程,我的各种软件首页都会自动给我推送很多类似的信息。但与此同时,我也希望戳破这个泡泡,个性化的界面似乎营造了我的生活中只有减肥这一件事的错觉,而我很多时候也还想了解更多其它方面的信息。在搜寻资料时,也发现众多公司和媒体试图通过一定的措施去减少信息过滤泡泡的影响,例如谷歌公司推出Ch-stream和For you两个模块,既有不受用户影响的新闻流,也有个性化推荐内容,我认为这与微博的“热门微博”页和“首页”是相类似的。不同的公司对待“戳破泡泡”的积极性并不相同,这大概该不是技术层面的原因,而是与公司定位和盈利方式相关,例如小红书的“泡泡”似乎就尤其封闭。

    想要打破这样的泡泡,或许也应该从用户主观和技术客观两方面双管齐下,在演讲中提到人们选择电影时一个很有意思的现象:“未来的有抱负心的自己和当下更加感性的自己拔河”。用户在选择内容时如果那个“未来的有抱负心的自己’战胜的次数更多一些,能动地多去搜索和选择自己并不熟悉的内容。在技术上,或许算法的进一步发展会实现更加”智能“地分析出更多可能性,突破单一推荐模式,让推荐从个人价值偏好更多地向兼具公共价值转变,同时注重各方面的平衡。另外在我之前了解算法推荐体系时也发现,很多企业的推荐系统也并没有完全交给人工智能,例如今日头条也依然保留了类似”守门人“的人工核验人员,我认为即使技术愈发成熟,这样的人工力量也依然有存在的必要性,可以通过加强人工编辑的干预进一步减弱信息过滤泡泡的效应。

    1. (上面的链接打开的图片好像看不太清,这个可能好一点:https://postimg.cc/QByk8wMY

  36. 信息过滤泡泡,即是互联网通过算法和信息捕捉,收集到每个用户的喜好及兴趣,并在推送信息时进行“智能化”筛选,使得用户本以为能看到的是整个世界,而实则只是算法“投其所好”的结果。这种在用户无意识下的信息选择和投送即为互联网的信息过滤泡泡。这样的信息过滤泡会巩固和强化信息窄化、阻碍用户的多元选择,也容易导致用户沉浸于个人立场和观点而不自知。

    其他类似的概念有“信息茧房”“回音室效应”。信息茧房是指我们只能接收到自己喜爱的信息内容,从而形成较为封闭的信息空间。当人们只能接触与自己观念相同的人和事时,则会使同类的声音不断加强,误将片面的观点扭曲为正确的全社会的观念,形成回音室效应。信息茧房侧重于个体主动选择;信息过滤泡是指用户被互联网选择;回音室效应则是指前两个现象所造成的群体极化、信息窄化的现象。

    而毫无疑问,现在各大社交媒体都或多或少有着这一推送模式,互联网上的我们,也确实置身于这样的屏蔽泡中。以我个人的使用体验而言,在小红书、抖音等平台上的“个性化推送”设置,使得我沉浸于自己的喜好(以及曾经的喜好中),而即使有些时候我已经意识到自己的某些信息内容取向是毫无营养且不利的,但大数据还是会持续推送大量有关内容,一次次的强化那些不好的内容和信息。此外,其他同学所提到的不同软件间的信息互通我也身有所感。

    对于如何打破壁垒,我很认同其他同学关于打造客观界面的建议,将算法用在平衡各类信息上,打造更加多元健康的信息界面。此外,也应该给予用户更多的选择权利,而不是使用户完全无法意识到自己正身处信息过滤泡之中,或是给予用户更便捷的途径去查看与个人偏好不同的内容。我们能看到现在也有类似的功能,比如许多软件都有长按后选择“不喜欢这类视频”等方式,但这一功能其实也仍是“个性化推送”“信息过滤泡”的守护者,仍是以喜好划分,而非“多元”“共存”的信息模式。第三,对用户自身而言,不断地反思和交流是我们所能做的一些力所能及的事,只有用户主观意愿希望打破壁垒,接受更多元的观点时,打破壁垒才是更有意义的,不然个性化推荐也是完完全全造福使用者的一种功能。个人的体验是,我很少有关注政治新闻的习惯,但在线上or线下各种交流过程中,会扩充我对新闻的了解,进而引发我的自主搜索。所以我认为,创立一个自由发言的平台以供分享交流也是一个打破壁垒的途径。

    1. 在看别的书的时候发现一个与信息泡泡的影响有关的心理学依据“易得性便捷判断”。简而言之就是人们对某件事情看得越多越容易引发担忧、越熟悉的内容越容易对我们产生作用。这本身是人们思考和作出判断的的一种心理规律,但信息泡泡无疑是加剧了人们的偏见和盲目。

  37. “但脸书问都没问我,就把它们编辑掉了。”这就是所谓的“信息过滤”。互联网过滤信息的方式就是编辑信息,通过各种途径了解用户是什么样的人从而为每一个用户构建起属于自己的个性化“泡泡”。听起来很可爱的概念,其实是很残酷的。换一个现实些的说法,就好像楚门的世界。你的泡泡就是一个信息化的楚门的世界。泡泡里的内容是算法通过监听你来获取的,它们用壁垒将你围住,可你却以为这就是全世界。泡泡外的信息我们可能永远都无法获取到,除非你意识到这一点并付诸于实践去打破。
    “互联网只给我们看它认为我们想看的,而不是我们需要看的东西。”我们每个人,只要是有电脑手机可以上网的,就都受制于这套算法。人们都有自己的喜好,都有想了解更多关于自己喜好的事物的欲望。于是我们搜索,然后被监听,被围困,不知不觉地身边就只剩下了那些喜好的事物;但因为喜好,因此谁也轻易意识不到。我自己很爱刷b站,在刚注册账号的时候,我记得b站让我选过一次喜好的标签,我选了一堆。什么“美食”啦、“绘画”啦、“摄影”啦、“电影”啦、“特摄”啦还有“音乐”等等很多。但因为我很爱看特摄剧,并且b站上我可以免费观看那些本应需要付费才能观看的内容,所以我总在b站搜索特摄相关的内容。后来我的首页几乎全是特摄剧相关的东西了,我忽然意识到我已经很久没在上面刷到过美食等其他板块的内容了,我才发现自己陷入了“信息过滤泡泡”。
    “泡泡里有什么不是你能决定的。”可最开始明明打着的是“个性化”和“尊重隐私”的旗号。因此“信息过滤泡泡”本质上也是一种欺骗。这种通过信息手段来“欺骗”用户的概念现在也有很多,比如“信息茧房”、“缸中之脑”……即使意思和语境不同,可本质都是“身在其中而不自知”。如此下去,我们便会失去对信息控制的主动权,互联网也会失去连接彼此、信息库的功用。
    “算法应该在给我带来信息甜点的同时,也带来一些信息蔬菜。”算法不能只关注相关性。为了打破这个所谓的“泡泡壁”,我认为需要进行算法开发和用户本身两方面的努力。对于算法开发,有如视频里所说,希望这些算法能有一定程度的公民责任感。现在的算法虽然看起来很复杂,其实很笨——无非就是看你搜索了什么,监视一下你的衣食住行,以此来对你进行侧写,生成你的形象。可人要比这复杂多了。可能我有时去搜索“恩格尔系数”、“资源配置”,不是因为我对经济学感兴趣,只是因为作业需要。所以仅仅凭借那一点儿信息就判断我的喜好是不负责任的;此外,像第一段所说,人们并非不满于被喂食被处理过的信息,而是不满于没和我商量过就擅自处理。如果对于算法来说做到真正准确、客观的判断很难,那么至少让算法和信息透明,让选择权回到用户手中。对于用户自己,我们要尽量走出信息的“舒适圈”,多去搜索一些新鲜、对立、多元的事物,而不是沉溺在自己喜欢的那一点东西里不能自拔。就目前来讲,我认为泡泡的壁垒大概是破不掉的,但我们可以扩大自己的“泡泡”,让泡泡里的内容多元起来,丰富起来。
    “如果互联网把我们变成一座座孤岛,那互联网永远不可能变成我们梦想中的那个样子。”

  38. 我们都是社会化媒体平台的使用者,我们也身处于属于自己的信息过滤泡泡之中。举例来讲的话,打开知乎,连续刷了三次,发现无不和“疫情”,“封校”,“这个社会会好吗”的话题相关,这也是我本人经常在知乎上搜索的内容。

    图片1 图片2 图片3

    退出账号,再度刷新发现如下从娱乐吃瓜再到政治新闻甚至猎奇新闻,无一不有,似乎涵盖了社会的各方各面。

    图片4 图片5 图片6

    在我看来,谈“信息过滤泡泡”,应该先从“信息泡泡”谈起。与“信息过滤泡泡”不同的是,“信息泡泡”缺少基于数字技术的筛选过滤过程。故我认为“信息泡泡”这个概念在数字媒介应用之前,便早已存在了。试想,当革命年代面对“保皇派”和“维新派”的争辩的时候,人的群居性使人们逐渐找到和自己志趣相同的圈子,对于自己不喜欢的观点可能会很少提及或带有负面意味的提及,只有将有着同一种观点的人汇聚到一起的时候,对话才能够相对正常的进行下去,开展进一步的行动。反之,两个意见相左的人进行思维的碰撞大概率情况会产生争辩,进而不欢而散,使“信息泡泡”不能形成。基于此,我认为“信息泡泡”自始至终都是存在在我们生活当中的,在数字媒介盛行的今日,将信息泡泡加上了“过滤”二字的限定,即利用算法系统,在用户主导生成的信息流的今天,使我们在互联网中更加容易的找到属于自己的信息组织泡泡(或者说使算法更容易带我们找到组织),因此被称之为“信息过滤泡泡”罢了,其本质上是“信息泡泡”的进化产物。

    不过,上学期上“数媒前沿专题”和“传播学概论”时,接触到了同“信息过滤泡泡”相似的概念——“回声室效应”和“信息茧房”。对于回声室效应不太了解,故在完成作业的时候又去了解对比了一下。“回声室效应”强调的在于“声”,即能发声且发声的内容具有同质化的特点。在前文的例子中更像是“找到自己兴趣相投的圈子”,并针对这同一种声音进行重播加强以达到“回声”。而“信息茧房”则更注重于获取信息的限制性了,在获取信息时把自己控制在茧房里,在我看来没有过分强调社交媒体使用者间的交互性,而注重于用户所探索到的相对固定的内容。“信息过滤泡泡“更像是二者的综合体,泡泡里既能产生小泡泡,也能够在既有的大泡泡里寻找到自己想要的声音。

    针对如何打破壁垒,“速通理塘”的例子或许也能提供一些方向:前些天在B站冲浪的时候,发现挑战“速通理塘”悄然火了起来。其具体内容就是从一个与理塘毫不相关的视频开始,通过点击视频下方的推荐视频,逐渐向“太美丽了理塘,哎呀这不丁真吗”这个视频靠拢。而能够速通的秘籍就是不断跳出原有的视频分区,如开始时的视频分区是舞蹈区,逐渐向生活区、鬼畜区靠拢以逐渐达成这个目标。

    泡泡同茧房和屋室不同的是,泡泡一吹就可以变大。从案例出发,观察这个挑战之所以能进行,就是遇到了此演讲当中所说的“信息过滤泡泡”不断扩大的现象,我认为在社会化媒介中,如果只有传统所述的相对封闭的算法形成的“过滤泡泡”,即基于固定的兴趣推荐算法,而不推荐一些弱相关性的内容的话,人们则只会接触到单一的同质化内容。在自己非主动的情况下,也不可能有系统进行的越出圈层的推荐以接触到新内容和新事物。但得益于于当今兴趣领域之间的边界越来越不明显(如影视明星的动漫化,互联网创作者们将影视明星这一看得见摸得着的真实的人以动漫的形式展出,可以跨越影视区和动漫区两个分区),进而提供给了算法以推荐更多新鲜内容的可能性,其将一些边缘化,多元化的内容纳入这个泡泡中,形成信息过滤泡泡。在保持原有兴趣点大方向的同时扩大自己了解的内容,如同吹泡泡般将自己的赛博生活变得更加多元,也是一件好事。

    综上,打破信息泡泡的壁垒主要还是靠两方面的力量。其中之一是靠算法的不断推进,如在很多同质化视频中插入不同(与原视频弱相关性)的视频,尽可能的扩大用户的信息泡泡。二于数字内容创造者和使用者而言,也应该更多的注重兴趣领域的融合问题,使算法能够将所创作内容在原有固定粉丝用户群体被推荐算法判定为“强相关”的同时,在部分用户处被判定为“弱相关”,进而拓展该群体用户的兴趣领域,拓展他们的信息过滤泡泡。

    说了这么多,想以一个Venn图的方式来体现一下我对信息过滤泡泡的认识:

    图片7

    如果说信息茧房和回声室效应把我们圈养在了固定的信息范围中的话,信息过滤泡泡则将二者所圈定的范围扩大化了,并提供给我们扩大自己信息接触面的可能性,相对于提供单一的信息,也能插入部分用户可能并不感兴趣(也可能很感兴趣)的东西以拓展用户的兴趣面。在信息爆炸的今天,也算是一件好事。

  39. 在演讲中作者所说的信息过滤泡泡指的是我们被封闭在一个泡泡中,这个泡泡里有很多信息这是我们可以接收到的,而还有一部分信息同样也处在我们的空间中,但因为是在圈外,我们的泡泡自动过滤掉了这一部分信息,导致我们无法接收到这些消息。大数据越来越精准,我们的隐私越来越少,甚至可能大数据比我们的男女朋友更了解自己,在大数据面前无法掩饰。在大数据时代,就注定了我们一定会身处这种泡泡。从大数据推送来看,平台想要的是流量,想要的是点击量,可是由于不同人喜欢的东西不一样所以如果把我不喜欢的东西推送给我,我就不会点开,但是上网的时间是一定的,所以点击量也就下降了。而且作为用户来说体验感也不好,所以就衍生出了大数据推送,制定个性化的服务,从这个角度来看这件事情一开始是双赢的。但为什么如今大家有都觉得这样的泡泡不好了呢,因为这样的推算越精准意味着我们把自己封闭在了一个小世界里,上网的本意是走向更广阔的世界,是看到不同的观点,但现在看到的只是自己喜欢的。
    这个概念跟信息茧房很像,我们被包裹在自己的茧房中,看不到外界的讯息。对于信息过滤泡泡作者的观点希望打破的,但我的看法是分为两个方面的。首先我觉得事物发展到今天的程度一定是有其可行性的,如果说从现在大数据推送完全消失,可能我们甚至会觉得不方便。本来我看小红书就是想快速看到我所关注的东西,却给我推送大量我不感兴趣的内容。在逛淘宝的时候甚至会先搜索,然后等待大数据给我推送,因为她推得的东西大概率在样子上我会喜欢,就节约了很多时间。所以这种信息壁垒我觉得没有必要完全打破,依然可以享受它带来的便利。之前看心理学想过的书籍,看到里面有提到人格,我当时甚至觉得可以通过每个人不同的人格来进行推送,有的人可能就是喜欢新鲜的东西,有的人就不喜欢。另一方面我觉得这个信息壁垒是有必要适当打破的,因为在这个泡泡里使得世界越来越小,甚至观点可能会更加偏激。一方面作为个体来说本身可能就需要对信息有更开放的态度,才会更容易接受来自外界的信息,无论有没有有数据的作用都是如此。另一方面,平台设计推送时还是应尽量拓宽度,推送不同的信息,其实目前很多平台已经意识到这一点,在设计时有所改变。

  40. 信息过滤泡泡指很多社会化媒体通过AI算法给每个用户推送个性化内容,让一个人接收到的信息都是自己感兴趣(或者算法认为你感兴趣)的领域的,而无法获取其他新的领域的信息,从而形成几乎一尘不变的只服务于个人喜好的信息网,让一个人只能看到符合自己心意的信息。
    随着信息大爆炸,技术水平飞升,各大社交媒体平台都会为用户推送个性化内容,尤其是像今日头条这类直接推送消息的新闻类社交媒体和抖音这种看到的内容基本上全取决于软件推给了你什么的短视频类社交媒体。现在可以说基本上所有人都处在信息过滤泡泡之中,因为现在人们越来越依赖网络,在网上留下的痕迹越来越重,再加上用户基数大,这就便利了算法,能很方便的找出用户的喜好,通过有相同喜好的用户来推送另外内容。
    其实关于信息过滤泡泡,信息茧房这个概念名词会听到得更多,它们本质上讲的是同一件事请,只是“茧房”更生动,有固步自封的感觉。
    为了打破“壁垒”,社交媒体的算法不能只是简单地将符合用户心意的信息推给用户,还要适当地推一些新的想法,不同的观点,要更具有挑战性,而非只听到相同的声音。要让用户可以决定什么想要被推荐,什么不想,而非全由算法决定。要让泡泡外的信息也可见,而非全部无法看见,封闭视野。本质上是要扩大人与人之间联系的可能性,不要只是将相似的人连接在一起,不同类的人群间毫无交集。

  41. “过滤气泡”是指互联网上的社交平台所使用的的一种算法:根据用户浏览的痕迹试图猜测用户者在未来可能点击或感兴趣的信息,呈现出相关性最大的信息。长久以来,我们会沉浸在自己的过滤泡中,无法接触到多维度的信息。拥护者甚至可能没有意识到我们已经沉浸一个过滤泡泡中,因为这些算法没有征求我们的同意,也没有告诉我们它们何时激活,或者什么能进入和走出这个过滤泡泡。如今,过滤泡泡在社交平台上是无处不在的。比如我在Fb上会经常浏览到我在网上购买过的衣服的同款而销售其他风格的衣服店就突然消失不见踪影了。同时,很经典的一件事是在2016年美国选举,每次唐纳德-特朗普赢得初选,社交平台上会不断地出现有关于他如何狡猾地获胜的报道,以及许多有争议的言论。自由派、温和派甚至保守派的拥护者似乎对他的突然成功感到很惊讶。除了“果绿泡泡”之外,还有“回应室效应”概念描述这个现象。“回声室效应”是指在平台上不断地出现相同意见重复的现象,导致拥护者在认为所听到的声音全部都是事实。虽然这两个概念听起来有点模糊但它俩还是有一定的区别的。“回声室”是让有统一的观点的人联系在一起,并更强化这个观点。而过滤泡泡指防止拥护者接触到相反的观点。总言而之,“过滤气泡”是你不能听到别的声音的一种封闭环境而“回声室”是指你对别的观点的一种“脱节”。当听到我们不同意的观点时,我们当初的反应通常是拒绝或挑战。然而,我们说服他人的能力不是基于我们的论点的力量,而是基于其他人是否相信我们理解他们的观点。为了打破这个“果绿泡泡”,在我们做出反应之前应该先问问自己,“为什么这个人会持有这种信念?”。我们应该打开自己的格局,愿意站在别人的角度去理解他们为什么会这么思考问题。此外,除了点赞我们所同意的帖子或我们感兴趣的帖子之外,我们还可以学会点在我们所不认同的意见或在不长阅读的帖子评论。这将给我们从新的角度观看问题的机会以及打开自己的视野。

  42. “信息过滤泡泡”设计者的初衷或许是提供更加个性化、贴心的精准服务,但同时也创造了一个更加隔绝、封闭,甚至更容易引发群体极化、社会粘性丧失的空间,让人们沉浸在对自我认知框架的满足之中。
    在豆瓣的「反技术依赖」小组里,有不少成员抱怨自己手机成瘾,落入时间的黑洞,组员中手机瘾重度患者每天手机使用时间都在10小时以上,更多组员的使用时间在6到8小时左右。2021年8月4日,组员“happy666”发帖表示自己的情绪受到推送内容影响:“除了(像强迫症一样)刷微博之外,我最大的问题是目前在自己的信息茧房里……比如我会在微博、豆瓣、B站,网页里搜索一些潜意识里让人产生担忧的话题,到后来推送也是这些内容,内容又强化了我心里的担心,目前我的思维认知都很负面。”
    中国人民大学新闻学院教授彭兰在《算法社会的“囚徒”风险》一文中也概述了今天人们面临的风险:算法应用正全面普及,在正在到来的算法社会里,人们享受算法带来的便利的同时,在某些方面也面临着成为算法“囚徒”的风险。对于个体来说,当他接受算法推荐的内容、产品时,某种意义上也是在借助算法作出判断与决策,也就是把对内容与产品的价值判断建立在算法的评价上。彭兰教授对人类将判断与决策完全交由算法表示担忧:“算法虽然打破了人的某些旧套路,但也会形成一些新套路;如果人们的决策越来越陷入算法营造的套路,那么人类的想象力与创造力也会萎缩。”显然,投喂式的推荐内容很容易导致人们获取的内容同质化。算法推荐并不必然是导致人们信息成瘾的唯一原因,但它是其中一个重要抓手。人们难以跳出已有认知的怪圈,数据思维会引导人们的思维导向,认知、判断和决策也会受到影响。
    回到一个已经被讨论已久的问题,算法有价值观吗,或者——技术是中立的吗?如果邀请扎克伯格或者张一鸣回答,答案必然是否定的。但事实是,比起用户,算法显然会更多地影响创作者,它决定平台更接受哪些内容,算法的价值观就是平台的价值观,算法的筛选就是平台的筛选,算法的推荐就是平台的推荐,在资本眼中,算法的价值观是平台“流量至上”的运作原则。马克·古德曼曾写道:如果你控制了代码,就可以控制整个世界。Facebook的前产品经理Frances Haugen向美国国会提供了大量的内部文件资料,指控Facebook利用算法为用户推荐极端内容,煽动对立,通过具有争议性的内容增加用户活跃度。当用户长期处于这样的网络环境时,思想会越来越极端和狭窄,社会也会越来越割裂。另一位参议员Richard Blumenthal通过实验发现,Ins的算法会向青少年推送一些饮食失调和极端节食的内容,加剧了青少年的外貌和身材焦虑。2018年路透社的报道指出,亚马逊公司开发的人工智能招聘系统存在性别歧视,算法在进行人工筛选时,对包含“女性“等词的简历进行降权处理,谷歌的照片识别曾经将黑种人打上了”猩猩“的标签, “技术不是对人性的限制,而是人性存在的条件”,算法黑箱中或显或隐的价值观难以被我们忽视。
    当前还有哪些概念来描述类似现象?我想到了回音壁效应、蚕茧效应和拟态环境。
    2009年,桑斯坦提出人们要注意封闭孤立的信息传播环境造成观点不断强化的回音壁效应,回音壁效应又称回音室效应。是指在一个相对封闭的媒体环境上,一些意见相近的声音不断重复,并以夸张或其他扭曲形式重复,令处于相对封闭环境中的大多数人认为这些扭曲的故事就是事实的全部。早在19世纪,法国思想家托克维尔就已发现,民主社会天然地易于促成个人主义的形成,并将随着身份平等的扩大而扩散。在桑斯坦看来,网络信息时代在带来更多资讯和选择,看似更加民主和自由的表象下其实也蕴藏着对民主的破坏。他在其著作《网络共和国》开篇生动地描述了“个人日报(dailyme)”现象。在互联网时代,伴随网络技术的发达和网络信息的剧增,我们能够在海量的信息中随意选择我们关注的话题,完全可以根据自己的喜好定制报纸和杂志,每个人都拥有为自己量身定制一份个人日报(dailyme)的可能。这种“个人日报”式的信息选择行为会导致网络茧房的形成。当个人长期禁锢在自己所建构的信息茧房中,久而久之,个人生活呈现一种定式化、程序化。长期处于过度的自主选择,沉浸在个人日报的满足中,失去了解不同事物的能力和接触机会,不知不觉间为自己制造了一个信息茧房。
    媒体在某种程度上是现实环境的一种模拟,人们会天然认为媒体呈现的就是现实世界,这就是拟态环境。媒体是认识世界的窗口,在纸媒的黄金时代,这个窗口是专业的、有职业素养要求的媒体,如今强算法导向的新闻聚合平台代替了纸媒,每个假新闻都可能加深我们的偏见,每一个无端沸腾的故事都可能让我们变得更傲慢。
    那么普通人可以抵抗算法,打碎过滤泡吗?科技媒体虎嗅发布的《为什么美团饿了么不可能通过“偷听”给你推荐想吃的?》视频中指出,今天技术上能够实现绕过系统的监听,偷听获取的信息对期望借其进行数字行销的公司并没有太大价值,但对研究人工智能语音引擎吸引力很强。此外,在语音助手和智能音箱随处可见的今天,偷听似乎难以避免。该媒体研究员Odin表示:“一般的工程师,写代码的或者会科技的,还有可能(对抗偷听),普通人的话是没有办法对抗的。科技已经很普及,他们的技术也太复杂。”
    打破“信息过滤泡泡“,意味着我们需要有在信息过载时代高效地处理信息流的能力,也就是所谓的提高信息素养。但是提高信息素养并非一朝一夕之事,需要经过一定的训练和长期的实战。从短期来看,比较实用的办法便是建立阅读工作流,以对抗信息流沙。一个可靠的、标准化的阅读流程,可以使我们在尽量减少意志力、情感等精力消耗的情况下,辅助我们高效完成日常的信息管理。我尝试过使用RSS (Really Simple Syndication 简易信息聚合),但RSS显然命运多舛,国内即刻、轻芒都尝试过但最后以下架告终,在线 RSS 服务 Feedly、Inoreader先后被墙,打着万物皆可RSS大旗的 RssHub 官方域名也被墙,iOS 端最多好评的 RSS 阅读器 Reeder 也于不久前在国区被下架。
    这一切是怎么发生的?或许每一家科技公司在最初都会带着理想主义和英雄主义的色彩,把改变世界的目标作为自己的使命,对Facebook来说,这个目标是连接世界,对快手来说,是看见每一种生活,对微博来说,是创建公共讨论的场所……但这些目标渐渐变成了让用户上瘾的算法延长用户的使用时间、变成了侵犯用户隐私换取更多的数据。“过滤泡”是对资本、用户、工程师需求的最优解,是互联网信息爆炸中产生的对于信息选择的判准,是高速运转的时代的必然选择,在注意力成为最稀缺资源的当下,这样的信息选择机制无疑是简单粗暴却有效率的。如今也有科技公司在尝试改变过滤泡,Youtube有不看推荐和清楚历史观看数据的选项,用户可以自由切换,儿童频道Youtube Kids已经改用了纯人工筛选内容,日本的一款新闻产品smartnews被称作采取了一种“反人性“的方式,比起其他平台用算法绞尽脑汁地分析用户喜欢看什么内容,smartnews用算法来分析文章,只推荐权威媒体、出版社机构生产的内容,B站也一直采取编辑筛选+算法推荐的方式,增加人工筛选在内容推荐中的比例。我认为辩证的思考”过滤泡“并不是回到过去人为主观干预的道路,而是要警惕算法黑箱的过滤陷阱,提升公众的媒介素养,企业更慎重、全面的思考信息选择方案,在多方共同参与下建设公开、透明的机制。

  43. “个性化推荐算法给受众呈现了他们想看到的世界,但并不一定是用户应该去看到的世界。”

    社会化媒体给用户推送个性化内容这个现象大家都已经习以为常了。相较于“过滤气泡”,我们更熟悉的是另一个相似概念——“信息茧房”。淘宝、小红书这类个性化推送当然可以理解,但没想到的是Google搜索、雅虎新闻这类具有公众事务责任的网站也会进行个性化算法推荐。在某些时刻,个性化推荐确实能撞上我们的high点,甚至有机会进一步深入了解自己感兴趣的内容。但是信息总空间是有限的,如此的话只能是将那些AI认为我们不感兴趣的内容搁置一旁,而健康的网络环境不应该是让我们只看得到我们想看的东西,最终变成只看我们想看的。更何况是诸如搜索、新闻等网站,此类公司不应该肩负起对社会对公众的责任吗?

    互联网时代,在大家眼中的世界都是经过了不同泡泡呈现的样子。每个人自身的价值观不一样,这个泡泡的滤镜也就不一样。每次爆发的热点讨论中,我也不敢轻易站队,仿佛事情随时都会反转,因此往往只关注不关心,仿佛告诉自己不管怎么样,朝着光明的方向去想就好啦。其实我最怕的还是信息茧房,不仅是自己获取信息的路径被阻断。更是怕人类之间的交流沟通与合作被隔断在一个个茧房之中,如同孤岛。

  44. 11年后,我们再看2011年的演讲,似乎大众对于“过滤泡泡”已经有了自己的理解观念。日益加重使用移动终端的频率,我们似乎已经接受了“过滤泡泡”的存在——甚至开始以此为梗作乐。“号已养好,推荐全是……”这是今天我们对于“过滤泡泡”的态度,作为信息接收者我们普遍已知晓信息茧房的存在,并利用信息茧房深耕自己的兴趣领域。
    “小红书”是我长期使用的软件中信息茧房现象最为严重的媒体平台,相比于通过朋友圈或是微信聊天记录了解某人的生活方式,我发现通过小红书主页更为精准和方便,你可以通过主页推荐中的寥寥数篇,发掘此用户近期的饮食喜好、穿衣风格、品牌偏好,甚至是……性取向!
    互联网时代,我们的信息由不同的媒体平台提供,微信“朋友圈”、“订阅号”、“看一看”;微博热搜;知乎首页推荐;B站首页推荐;抖音个性化推荐……而我们,却只能被填鸭式地被灌以信息。互联网似乎成为了一种集权,将信息进行二度分配,而执行者是每一家信息门户!我们在自己的“过滤泡泡”里接收二度分配的信息,即使自己搜索,也难逃被二度分配的命运。
    当微博热搜成为资本的战场,我们是否还有机会自己获取信息呢?我曾有过一个拙略的想法,制作一个不对信息进行二度分配的信息门户,然而在仔细考虑过后,我发现这样一款产品似乎在现在的互联网环境下并不能获得市场接受。第一,即使大众目前产生了打破“过滤泡泡”的想法,却也只是为了获得看待某事或某物的不同看法,对于自己毫无兴趣的领域,似乎也并不关心。举个例子,对于一个从来不关注体育赛事的用户,每日推送NBA实时赛事,也并不会得到正向反馈。所以不加筛选地将信息推送给用户似乎并不是打破“过滤泡泡”的最优解。第二,在目前的互联网环境下,内容需要用户或机构生产,而一款没有流量池的媒体平台,并不能吸引内容生产者入住。所以,制作一个不对信息进行二度分配的信息门户并不现实。
    那对于在一定程度上打破“过滤泡泡”而言是否没有解决方案呢?似乎也有一些!比如我在知乎创建了一个小号,不关注博主,只看首页的信息流推送——在没有明确标签和兴趣前,你能够收获到该平台所有的优质信息。同时,我也曾下载微博国际版,不同于“微博”个性化推送信息,微博国际版会严格按照时间顺序排列信息。而对于一些自己不关注的领域的出圈信息,我的信息在多数情况下来自朋友圈。因此,接受多个层次的信息源,扩大社交圈,添加圈层不同的人为好友,即可通过朋友圈了解到不同圈子里的“新鲜事”。
    我们在吐槽互联网媒介的同时,回想传统媒体,似乎它们也具有主观性。《申报》和《人民日报》或多或少出现在历史题材影视作品中,而此两者,似乎在报道同一事件时,也具有不同的观点——而穿越一个世纪,审核者只不过是从报社的人工审核成为了互联网公司的大数据审核。
    当我们打开一款全新的应用程序,常有一个页面是选择自己的“兴趣”——上面罗列着很多词汇:汽车、体育、美妆、搞笑、科技……它们大多被设计成圆形,点击后的交互设计似气泡充盈的过程——这一切似乎也注定它们总将汇聚一起,在这片新开垦的沃土铸造“过滤泡泡”——要记得,这是私人订制,是每一家内容生产厂商对用户的“关爱”!

  45. 信息过滤泡泡,一方面是大数据时代互联网平台的讨好性行为的产物,通过搜集用户的搜索记录、点赞转发情况、甚至是窥探聊天记录的方式精准把“礼物“——用户可能喜欢的内容送到用户面前;另一方面,体现了其实很多个体也在自我选择同意被数据分化。网络上信息量巨大,个人不可能全盘接受,用户在对这些信息进行筛选时,必然受到选择性心理的影响。“他将用户束缚在由兴趣和先入之见所引导的狭隘的信息领域”。逃过了选择性心理,还有选择性理解和选择性记忆在前方等待,自我个性内容不断挤压公共媒介空间,“非我”逐渐淹没在信息洪流中。
    毫无疑问我们是处在这种泡泡中的。相信每个和互联网接触过的朋友们都能感受到,算法的善解人意。在很多情况下算法和程序确实是我们的好朋友:当你要买一件衣服,当你想找一些伙伴,当你乐意在舒适区里享受一下。可在什么时候,他成为了我们的敌人呢?或许是在网络骂战日益激烈的时候,或许是左派右派越来越极端的时候,或许是我连自己保持中立的权利都无法捍卫的时候。
    类似的现象实在太过广泛,学术名词叫信息茧房、同温层效应、网络巴尔干化;出现在生活中就叫做“推荐”、“猜你喜欢“、”凭本事刷到“。在泡泡隔绝了我们和“非我”的接触时,群体极化也就应声而出。《乌合之众》里谈到,“群众没有真正渴求过真理,面对那些不合口味的证据,他们会充耳不闻…凡是能向他们提供幻觉的,都可以很容易地成为他们的主人;凡是让他们幻灭的,都会成为他们的牺牲品。”是这样的。泡泡在平面上把人分隔开成为孤立的圆,却在三维上将人群捏成一个个高耸尖塔。
    戳破泡泡,平台方固然应该积极建设好公共领域,不应该放弃信息聚合和共享。此外,不能仅仅期待平台行动,更是需要“我”,这一信息的接收者和参与者,认清自我知识范围限制,不必急着站队或找组织。
    总之,做文明冲浪人!

  46. 信息过滤泡泡,原本应是网络时代大数据根据用户曾经的浏览信息发现用户兴趣内容进而推送相似内容以节约用户浏览时间成本的工具。然而由于大数据筛选的内容单一而缺乏变化导致用户不能更多接触到大数据对用户“刻板印象”以外的更多信息,导致用户受困于同质化的信息内容中形似被关进一个泡泡。实际信息过滤泡泡事件每天都在发生,只是我们对其习以为常。短视频平台首页的各类推荐,购物软件的猜你喜欢,即使是百度的首页也会因为搜索了太多百度求医而在推荐页面显示各类“危险❗️5大癌症预警信号”。泡泡的概念让我想起信息茧房,而茧房的主体还是用户本身的主观爱好,而泡泡的幕后操纵者是冷冰冰的算法。如果说突破信息茧房需要用户的主观能动性,那么突破信息过滤泡泡不仅需要用户本身觉醒也确实如演讲者所说需要平台管控人员的干预和努力。被改变的如果是算法,技术的进步恐怕又要经历长久的时间考验,而作为用户,想要突破思想的束缚,一方面要对看到的内容有所甄别,另外也应当更多与不同的他人交流防止固步自封于与算法的对话中,多思考,多尝试理解他人的想法,少一些无意义的苛责站队和一意孤行,也许在这个过程中我们自身也能成为更丰富更立体的人。

  47. 如Eli Pariser在演讲中所言,信息过滤泡泡(filter bubble)是在网络生活中专属于你的,私人定制的,独特的信息领域。它基于大数据与算法推荐而形成,只要算法推送的模式不变,泡泡就不会消失。在Facebook、goole ,以及今天我们更为常用的百度、b站、小红书、微博、lofter等平台都有它的身影。 一但踏入互联网这一“信息高速公路”,我们便会身处于这种泡泡中。
    和信息过滤泡泡(filter bubble)最为相近的概念当属信息茧房(echo chamber)。二者都聚焦网络空间中由个人兴趣导致的信息局限,不同之处则主要在于bubble侧重个人在使用互联网的过程中不知不觉陷入了一个泡泡,被动失去了许多重要信息;茧房却在此基础上强调了个人长期处于过度自主选择的状态,通过主观行为加大了隐患。另外,从中文字面意思来看,泡泡的表述要更为中立,“茧房”这一翻译容易引发“作茧自缚”的联想,似乎暗含着批判的立场。
    与二者紧密联系的还有兴趣社区、回声室效应等概念。当人们长期处于信息局限当中,就会不断接触高度同质化的内容和观点,并和大数据带来的“同好”一同形成兴趣社区。在大大小小的社区内部,回声室效应会发挥显著效果,致使单一信息和观点被不断强化。在此基础上,各社区内部也会发生群体极化,使得基于不同兴趣和信息差发生分化的网民分别走向不同的极端。若是如此,互联网“地球村”的优势将不复如前,个人不会更加开放包容,而会更加狭隘偏激;人们不会更加团结一体,而会更加冲突分裂。社会化媒体平台也将无法作为新的公共领域带来积极的社会意义。正如桑斯坦所阐述的,“对于私人和公共机构而言,茧房可能变成公众一种可怕的梦魇。”
    那么,如何打破这层信息差促成的“泡泡壁垒”?我想用户和平台都需要寻求探索、改变。从认识层面,用户要时刻保持警惕与学习,形成先思考再行动的习惯,谨记走出舒适区、鼓励创新精神、坚持critical thinking以及主动分享的重要性。从实际操作角度,用户可以掌握一些使用技巧。在基本熟悉算法推送机制后,我尝试过在lofter、小红书注册多个账号,一个号随心所欲肆意浏览随性点击、评论、关注、推荐,一个号经过深思熟虑分享自己真正有价值的内容,参与更严肃深入的话题等等。在碎片化的信息流瀑中,我也会在点击前多斟酌,沿用这一ted talk中的比喻,用专门摄入vegetables 的账号时,严格控制自己不点dessert。然而,频繁切换账号不仅麻烦,而且在需要与手机号、邮箱绑定的平台难以实操。即便克服各种阻力换回了主动权,充其量也只能独善其身,“治标不治本”。这时候就需得上升至平台的维度:要真正杜绝过滤泡泡的发生发展,需要平台改变设计。如取消新注册时的兴趣选项、把是否进行大数据推送的权限转移给用户端等。只可惜,当我注意到这一非常贴合当今互联网用户体验的ted talk其实是在2011年录制的,我一方面赞叹于演讲者极具前瞻性的观察,一方面也不由感慨他发出的倡议并没被各大平台落实。实际上,随着互联网普及和各平台的发展,过滤泡泡的作用范围还在不断扩大,从你浏览的网页、你网购的东西、你最关心的社会新闻上都能看到它的影子。显然,让互联网巨头们放弃算法是不现实的。毕竟它对用户吸引力强,有利于平台点击量、订阅量、购买量等关键数据,能带来实际利益。
    而另一方面,过滤泡泡也有积极作用。对普通用户而言,互联网中的信息浩如烟海,泡泡作为“过滤器”能提高检索效率,提升用户体验。甚至于,有时算法推送的正是你的刚需。高中时代英语课课前演讲讲teded,我因为选择困难浏览了好多篇,结果获得了源源不断的推送。在b站的长期“劝学”下,我对柏拉图的洞穴譬喻、电车问题、隐喻和明喻、西西弗所神话等题目变得异常熟悉,甚至还记住了几个非常地道的表达,这是我单凭求知欲和自制力实现不了的。
    总体而言,上个世纪的传播学在报纸、电视和把关人的选择,今天的在互联网与社会化媒体和算法给你的泡泡。我想,曾经被把关人删掉的内容和今天被泡泡过滤掉的信息可以对照来看,那或许,只要我记得要饮食均衡别忘记吃“蔬菜”,这份私人定制也有幸运的一面。

    刘元倩

  48. 视频中演讲者表示,互联网通过一些不可见的算法式编辑,为我们过滤出了个性化的独特信息,只给我们看它认为我们想看的内容。“信息过滤泡泡”就是指人们在上网的过程中,由于搜索引擎、社交媒体和其他自动过滤技术的存在,只接收并保留自己感兴趣的信息的一种现象。泡泡里有什么并不是我们能决定的,它仅仅取决于我们是谁,我们在网上做过什么。这种现象导致用户只与与自己观点和兴趣相似的人和信息接触并互动,逐渐形成一个信息“泡泡”,限制了用户了解和接触多样的世界和观点。我们看不到那些已经被过滤掉的东西,也就很难发现自己的搜索结果和别人是多么得不同。简单来说,信息过滤泡泡就是通过个人数据来操控搜索结果而形成的信息壁垒。

    很显然在现在这样的大数据时代,我们每天都身处在这种泡泡中。从脸书、微博一类的社交媒体,到淘宝拼多多一类的购物平台,再到各种音乐平台、视频平台,几乎所有的软件与网站都在利用账号的使用数据进行信息筛选。这一现象甚至严重到可能会产生“在淘宝给朋友去世的母亲买了个花圈于是接下来一周满屏都是棺材”这样的事情,前阶段小小地流行过的“刷到我你这号算是养成了”也是这种过滤机制的一种体现。

    同时还有一些类似于“信息过滤泡泡”的概念,如“偏见确认”、“信息茧房”等。“偏见确认”是指人们在获取和处理信息时,倾向于寻找或接受与自己已有信念或观点相符的信息,而忽略或排除不一致的信息。“信息茧房”是指在信息传播中,公众只注意自己选择的东西和使自己愉悦的通讯领域,久而久之,就会将自身桎梏于像蚕茧一般的“茧房”中。它们描述的都是不利于多元化和开放性的偏差和固化。但这些概念又与过滤泡泡有着一定的区别。它们更偏向于主观选择而过滤泡泡则更倾向于被动接受。

    这一看似“贴心”的网络信息过滤机制其实带来了许多问题。由于它只关注我们最开始点击的东西,信息就会失去其多样性。随着人们越来越依赖信息技术,这些逐渐成为了人们追求真相和理性思考的一种阻碍。要想打破这种信息“壁垒”,第一步首先就是要清醒地意识到它的存在。视频中就提到了我们像温水中的青蛙一样对满屏“感兴趣”的内容习以为常,很难意识到这种算法的存在,很少有人会真正思考阅读被算法所剥夺的那一部分信息的意义。因此我们要有批判意识,提升独立思考的能力,不在算法营造的世界中“自欺欺人”,成为“屏”底之蛙。有意识地寻找不同的声音,更加开放包容地与持不同观点的人交流,积极探索“屏幕以外的世界”。然而用户层面的解决方案并不能真正意义上从根本改变现状。更有效更彻底的改变应当出现在平台方。虽然此刻我们对信息过滤持批判态度,但不可否认的是,大数据的过滤筛选机制确实给我们提供了一定的便利。他提高了我们使用互联网的效率,同时提供了积极的情绪价值,提升了使用体验。同时平台方也可以通过这一算法实现利益的最大化。因此,如果目光放得狭隘一点,这似乎确实是个“你好我好大家好”的事。所以平台方的改进也不能“一刀切”。例如可以在搜索栏旁边勾选“是否使用大数据推荐或者信息过滤筛选”,把主动权交回到用户手上,给予其获得所有信息的权利。
    韩叙

  49. “信息过滤泡泡”可以看作是大数据算法推送的一个附加产物,即在互联网时代,搜索引擎会根据用户兴趣将搜索结果进行过滤,从而只让用户看到他更感兴趣的内容(或者说搜索引擎所认为的他感兴趣的内容)。也就是说,从用户角度来看,永远只会看到和自己观点相似、爱好兴趣相似的信息,而其它的信息则会被“过滤泡泡”过滤掉,甚至用户可能不会意识到那些其它的未知信息的存在,从而使用户在不断重复与自身观点相似的内容中,更加坚定自己的想法,而缺失了对比思考、获得全面信息的机会。桑斯坦在《网络共和国:网络社会中的民主问题》一书中提到“民主之所以为民主,其真谛就在于人们常常无意间在一些没有筛选过的题材中找到观点和话题”“大部分公民应该拥有一定程度的共同经验,否则会带来价值断裂,一个消除这种共同经验的传播体质将带来社会的分裂”桑斯坦认为互联网的协同过滤技术是有害于民主的。这种过滤技术在一定程度上提高了我们的搜索效率,但会将信息更加同质化。“过滤泡泡”将不同兴趣不同观点的人分隔开,用户们分别向不同的极端靠拢,将最终导致“群体极化”现象。
    “信息过滤泡泡”和“回音房”、“信息茧房”的概念很相似。信息茧房是指人们关注的领域会习惯性地被自己的兴趣所引导,从而将自己桎梏于像蚕茧一般的“茧房”中的现象。“回声室效应,意指网络技术在带来便捷的同时,也在无形中给人们打造出一个封闭的、高度同质化的“回声室”。这两个概念都是围绕互联网给与用户信息的相似性的概念。它们不可否认的都表达了用户在这种机制下可能面临的不好的影响。因此我们需要打破这个“壁垒”,2011年在帕里泽提出“过滤气泡”的概念后,引发了一场声势浩大的“戳泡运动”掀起。媒体、科技公司、非营利性组织都参与进来,开发了许多程序和应用,例如安装程序后会在你检索出的内容中穿插几个相反观点的内容,从而达到内容不同质化。“戳泡”行动的开展取得了一些成效,但大多只是算法技术的调整,壁垒仍旧存在。要真正消除壁垒,我们还需要考虑到用户的内在情感需求,包括要考虑到政治和权力等方面。这并不是简单的算法调整可以实现的。除了算法程序上的调整,我们还需要用户自身认识到信息的不全面。也许可以期待未来一个真正自由、开放、公正的互联网平台的出现。
    郝栩燚202211110026

  50. 所谓“过滤气泡”即隐形算法以个体过往偏好为基础过滤异质信息从而打造个性化服务,因此导致个体网络环境的同质化现象。Pariser在演讲中提到这种固化使他的列表中保守派无声无息地“被删除”,取而代之的是更多观点极化的自由派。这种惯性的算法引导无疑是细思极恐的,因为它正隐形地修剪我们的思想,不仅仅是政治观念。个性化算法推荐一方面满足个体对社会支持的稳定需求顺应初始的偏好,另一方面强化我们原有的态度,阻碍了多元化信息交流。在算法过滤机制越来越盛行的今天我们很难保证自己不信息偏食而陷入这种营养不良的“过滤泡泡”中。
    与“过滤泡泡”具有相似性的概念还有信息茧房和回音室效应。信息茧房由美国学者凯斯·桑斯坦提出,指人们在自身的信息获取网络中只听自己选择和愉悦自身的信息从而产生像“茧房”一样的视野局限。但信息茧房的形成不仅有算法过滤的因素,还有极大一部分原因在于人的选择性心理:个体的信息消费偏好导致他们选择性接触和选择性注意相似的信息源。有学者将个性化算法比作回音室效应,回音室效应更多强调的是封闭化信息群体内用户逐渐被自己的“回音”困住,是对“过滤泡泡”隔阂下极端影响的精准化概括。
    我们需要注意到一方面过滤泡泡的形成离不开个性化算法的强化作用,另一方面算法的调整将有助于“过滤泡泡”的破解。媒体应用可以通过优化界面引导或者奖励机制鼓励更多的人群关注到关乎社会民生的多元化信息,为具有公共价值的信息内容的生产者提供更多流量,同时促成信息源生态的平衡。与此同时个体为摆脱泡泡的桎梏也需要克服自身获取信息的消极态度,减少对“猜你喜欢”的依赖程度。
    邓婧宜202211110113

  51. 在聆听Pariser对于“过滤泡泡”的引入部分时,“大数据”三个字充斥着我的大脑,我承认,这三个字为我们的生活提供了许多表面便利,但我的内心却是对此深恶痛绝的。而所谓“过滤泡泡”,既是一种互联网隐形算法,它针对每个用户在互联网上的习惯性行为“自以为是”的进行筛选过滤,替你屏蔽算法认为你不感兴趣的内容和信息,并根据你的点击、阅读行为去替你搜集大量有相关性的类似信息,从而为你量身打造属于你的互联网环境。

    而正如Pariser所说的,“过滤泡泡”的算法往往是捕捉用户第一次点击的目标,却不将后续用户的点击或行为纳入计算之中,这便是极为片面的极端化用户的需求及喜好。互联网披着“个性化定制”的说辞,却不经过用户的主观意图便为其创造一个“个性茧房”,看似是满足了用户的第一兴趣点,但实际上却是大面积扩张单一信息面,诱导偏好极端化,使每一个用户的信息检索范围越发的狭窄,更像是困在井底的蛙。

    这种情形不禁让我联想到《楚门的世界》,好像每一个人都被互联网打造了一个专属的世界,每日所经历的事都是互联网算法一手导演的作品,在这种表面性质上的便利与愉悦,本质上却丢失了互联网本身广泛、公共、没有围墙和门槛的特性,这种一味的追求“高精准”、“个性化”的网络平台何尝不是一种思想的监狱呢?美国总统奥巴马甚至在演讲上说过:我们的社交媒体,周围越来越相似的人,从不挑战我们的假设…我们在自己的泡泡里越来越觉得安全,以至于我们开始只接受符合我们观点的信息。

    如今的人工智能可以全网络学习,chatgpt正慢慢取代着人们的思考工作,而大脑复杂的人类却在逐渐减少思考,被过滤泡泡所捆绑着,眼界愈发的狭窄,观点的碰撞逐渐减少,这对于人类无疑是不可想象的后果。在我看来,我们不应该让互联网抢夺人们手中的主动权与选择权,过滤泡泡是一个可悲的现象,但更可悲的是,多数人们正享受着这种可悲……
    蒲玛莉 202211110047

  52. 信息过滤泡泡指的是由于互联网时代中算法对于信息的过滤作用,产生了可见的泡泡内的信息与隐形的排斥在外的信息之分的现象。我们确是处在这样的泡泡之中,我每天所使用的小红书、网易云音乐、微博、推特,全部都是按照我的点击和订阅等“喜好”进行推荐的,平台push给我的信息都是我自己pull的结果。
    “过滤气泡“概念的出现,首次将算法推荐等网络技术同政治学传播中的回音室效应和信息茧房概念相结合。三者的结果都是信息同质化,都与群体极化效应紧密相关。而信息泡泡更强调“算法”这一“隐秘的手”的作用,信息茧房则是个人主体的作茧自缚,回音室效应则强调群体中的观点和声音渐趋同化且强烈的发展过程和结果。
    泡泡是种壁垒,可怕之处在于我们都不知道井外有什么、甚至不知身在井,却乐在其中以为这就是世界的全貌。我们很难以网络的使用者的身份去改变自己的处境,因为我们的知识很难面面俱到,我们“遇事不决就百度”,没有比网络更可靠的信息源。如果把信息的多样性比作均衡的膳食,那我们该如何把自己很少接触却大有裨益的食材列入菜谱呢?
    首先,我认为算法应该作出改革。依然是个性化推送,但可以有“正负”之分。比如说现在首页的推送是根据我的喜好和习惯给我的主菜,那么与之并列的可以有一个按钮名为“换个口味”,专门针对风格内容差异鲜明的精选内容进行推送。虽然这样的“反义词”要想推荐得准确很困难,但是总能让我们窥见地球另一侧的一角。
    如果思考这样的算法为什么如今全面侵袭网络媒介,我认为这与平台的盈利有关。内容的幕后之人、算法的设计者和获利者就是抓紧网络用户的欲望进行投喂。没有了分门别类、美美与共的出版商,要想把自己的东西推销出去,最好的办法就是“猜你喜欢”。互联网中的大家均衡膳食的意识还不够强,所以最终沉浸在即时的哪怕相对短暂的快乐中,而内容发布方社会公共利益意识不够强,或者说尚未达成获利与公益之间的平衡点的共识,这与内容接收者集体迷失、蒙在鼓里乐不思蜀的现状共同作用,形成了这样的泡泡。要想戳破泡泡,或许需要所有的算法都要落实私利与公益双管齐下,才能维持一个公平竞争和社会运转双平衡的局面。那么这双扭转信息泡泡零和博弈的“无形的手”和最初改革的一批“勇士”究竟是谁,我也尚未可知。

  53. 对信息过滤泡泡的看法米再曦 202211110058依我理解信息过滤泡泡就是当下网络环境中智能算法未经用户允许建立的个性化信息推送。在互联网风靡全球之前,人们幻想中的网络世界是对信息流的全面自由接收,处于信息流闸门的主流媒体将无法再控制信息洪流,然而网络发展到现在人们却发现算法代替媒体管控了信息流,并且是以一种非常强硬的姿态遏制了用户的信息资源,减少了接收信息的多样性。在视频中,演讲者的两位朋友同时搜索“Egypt”,得出的结果却大相径庭,尤其是算法出于对用户爱好的揣测故意省略了埃及的游行活动这一新闻。假使该用户看见了这一新闻,这可能会重塑他在政治观点上的看法或者是对埃及的看法,尽管他也许并不是一个紧密关注政治热点的人,他依然有看到这条新闻的权利。那么这种二人信息接收上的微小差异如若被置于全球人口基数之上,产生的分歧和冲突将是巨大、难以调和的,更令人担忧的是,这种信息差异是否可被有意控制的,如若是,在网络普及的年代这将轻易的挑起两个或者多个群体之间的冲突。类似的概念有:美国学者桑斯坦的“信息茧房”(Information Cocoons)、尼葛洛庞帝在《数字化生存》提出的 “我的日报”(The Daily Me)、来自桑斯坦的著作《网络共和国》的“回音室效应”、“文化部落主义”。这些概念其实都描述了同一件事,即数字时代下个性化信息服务的逐步兴起。其中“信息茧房”、“我的日报”描述了过滤气泡会导致的直接结果——我们只听我们想听或者喜欢听的。而“回音室效应”、“文化部落主义”在此基础上做出了一种负面预测——用户会认为自己的看法代表主流,从而扭曲用户对一般共识的认识(这样的数据推送反而导致了“孤岛”的出现),同时也推动了过滤气泡的进一步增加。显然,我们也生活在一个大数据推送下的时代,作为网络用户我们对此似乎难以反抗。但是作为现实生活中的自由个体,首先,我们可以依靠别的途径来拓展自己的兴趣、增加知识的多样性,减少对大数据、网络的依赖;其次,我们可以在网络多方位的搜索一些关键词,引导大数据的推送,不要耽溺于自己喜欢、想看的部分,永远要相信天外有天,有趣的事物总是停留在未知的区域等待我们去发现;最后,也可以在网络上向公共平台发起者提出增加推送算法实操性和公民责任感的建议,增加对算法的管制。

  54. 我认为信息过滤泡泡是大数据根据你的信息为你筛选出的一些它认为的你的“个性化”项目,并把其它内容过滤除去,使你不会收到这些信息。观察我们使用的各种app的推荐、自动推送等,不难发现,我们处于这样的情况下。
    视频中提到的的网络诈骗从某种程度上也与这个情况类似,我们所得到的,是有人通过数据等手段由别人在筛选过后才到我们手中的,其中一定不乏一些骗局与隐瞒,而和“信息过滤泡泡”类似的概念比如“信息茧房”和“回音室效应”,都可以说与其有高度相似之处。
    那么如何打破“壁垒”?作为信息的接收者,我觉得我们不能只沉浸于某几个“词条”,而是要广泛的获取信息,就算在无法避免的构建着“茧房”,也要尽力把茧房给扩大。其次,我们可以同时通过多种途径、媒体接收信息,而不只是在已经个性化的泡泡里。同时,作为筛选信息和给予信息的那一方来说,也因该被赋予这样的“观点”,需要提供一些像视频里说的新观点,新面孔及不同的视角,而不能只是一味的迎合用户的喜好以获取流量,应该认识到自己所背负的一些特别是社会责任。
    方欣202211110015

  55. 如今的热门话题“科技是善是恶”“科技使我们失去人性了吗”“科技的道德准则在哪里”,当下,与我们生活联系最为紧密的就是互联网,我们手机中的应用程序正悄无声息地影响着我们的行为方式和思考习惯。电子媒介使信息传播瞬息万里,地球上的重大事件借助电子媒介已经实现了同步化,偌大的地球缩小为弹丸之地。在“竖”向结构上,个人与全世界联结起来,打破了原有的空间和时间的限制,我们不费吹灰之力只需要点击首页刷新就可以看到南昌夏日入侵企划演唱会的现场、太平洋马里亚纳海沟的深海生物……持续流动变换的数据使我们“瞬息全宇宙”的“贴心管家”。扎克伯格说:此时,你前院奄奄一息的松鼠,可能与你的兴趣更加“相关”,比起非洲那些挣扎在死亡线上的人们。”在“横”向结构中,建立在“相关”思路上网络个性化定制使我们深陷“信息过滤泡泡”的裹挟之中,隐形的算法的机器信息审核通过屏蔽意见相左仅仅保存相同兴趣爱好,使我们获取的信息呈现单调性,形成了有偏见、相互分裂的群体。

    信息飞速发展,“个性化”听起来很温和,但其出色的表现将引发一场灾难——我们每个人都可能无意中聚集在一个狭隘思维方式的贫民窟中。作为数字原住民的00后,取代短视频推流机制是平台“以用户为中心”以达到“人人不同,千人千面”的目的机制。抖音、bilibili等视频软件以及购物软件如淘宝、京东等在长期个人偏好“驯服”下,呈现出个性化私人定制的网页,在提供高效检索效率的同时,也使我对这个“私人定制”数字产品的高度依赖。在一次偶然,我试图创建一个新的抖音账号,像从零开始培育白纸般的孩子,其内容更具挑战性,多样化的视频对我一贯的浏览习惯造成很强的冲击,内心感到强烈不适,于是草草刷新几下后,果断放弃了“培育计划”。可见,我已经是“信息过滤泡泡”囊中之物,插翅难飞。

    类似的观点例如“信息茧房”“回音式效应”以及“全景监狱”等等。其相同之处首先在于都与选择性心理机制有关,受众倾向于接触与自我态度相一致的信息,在大众传播的饭桌上,受众们都是挑食的。第二点是导致了群体极化显现,社会成员进行更为紧密的同质性交流增强集体认同感,使观点越来越极端;误认为“私域”的观点等同于“公域”的观点,形成刻板印象;或者由于“信息窄化”导致的思维模式单一化,社会成员隔绝在信息孤岛。三是这些现象都离不开算法技术的推波助澜,固化个人的兴趣偏好,导致用户产生路径依赖。

    好的设计是诚实的,在互联网提供的信息平台上,生产者源源不断地提供新闻、游戏、视频、商品、文章……输出自己的价值观与世界观,用户即消费者成为他们盈利工具,分析留存率、回访率、转换率,精心设计能使用户愉悦的“花招”,使其对此app产生依赖甚至上瘾。对于信息审核者不但应在算法中保证了公共生活和公民责任感,不仅仅提供的是“相关”信息,还有不合意的、具有挑战性的或者重要的信息。作为用户,减少科技神化深信不疑的观点倾向,增强对信息的识别能力以免成为算法的提线木偶,信息窄化的井底之蛙。

    202211110109 宋丽婉

  56. 根据演讲,首先我对“信息过滤泡泡”的理解即是我们在互联网世界所能接触到的信息环境,这些能够被我们接收的信息与我们的个性和偏好息息相关。在这个泡泡中我们可以轻易获取我们想要或是喜欢的内容,但是我们无法决定什么信息会被过滤在泡泡之外,甚至对于这些信息的存在毫不知情,被屏蔽的信息则是由算法的“个性化定制服务”来决定。
    其次我认为,所有使用互联网的用户都身处于信息过滤泡泡之中。正如演讲中所说,当用户登入平台的同时,算法可以根据各项指标向用户推送他们喜欢的内容。对于平台来说,这无疑是投其所好,增加用户粘性的做法,当我作为用户使用时,我也更愿意去浏览我感兴趣的内容,对于不关心或是反感的内容当然是敬而远之。有时我们甚至会反过来利用这些机制,频繁浏览喜欢的内容或是主动屏蔽与自己观点不同的言论,来营造一个令自己感到舒适的网络环境。
    类似于“信息过滤泡泡”描述的现象,还有“信息茧房”以及“回音室效应”等概念。相较于过滤泡泡,我认为信息茧房更侧重于人们主动选择自己偏好的信息,从而形成一个围绕自己的程式化、内容同质化的信息环境;回音室效应更像是一种过滤泡泡和信息茧房产生的负面结果,人们只愿意和与自己观点相同的人交流,而这一观点在某一特定的圈子里会不断加强,产生群体极化的效应。
    信息化过滤泡泡带来的负面影响使人们远离了存在多样化的观点的环境,造成了获取信息间的失衡,长此以往也削弱了使用者接受不同立场和不同想法的能力。同时作为内容的产出者,面临着发布内容可能被算法过滤的风险,因此会有大量迎合大众偏好的“快餐作品”产出,长时间接收大量同质化的内容反而会使得大众的审美降级和思辨能力的减弱。
    打破过滤泡泡带来的壁垒,一方面需要平台在设计算法的时候就考虑到如何维持信息平衡,如演讲中提到人们不能只是接受“相关的”信息、还应该看到“不同的”、“重要的”其他声音。或者进行人工干预,如在社会重大事件发生时将信息推送给所有用户等等。这也要求平台具有更多的社会责任感。同时我也发现了一些为了打破信息壁垒而产生的平台的出现,比如B站UP程小滨在2022年发布的“盲盒搜索网站”,这个网站收集了几千个不同甚至毫无关联的主题,使用者可以选择B站、知乎、微博、百度等等不同的平台,在词库中随机出一个关键词进行检索,来脱离大数据推送获取已知或未知的信息。虽然这并不是一个实用的网站,但我认为这是一个十分有趣的想法。
    另一方面作为互联网的使用者,我也常体会到这些过滤机制导致信息茧房所带来的焦虑感,害怕自己成为井底的青蛙,只能接收到算法推送的信息。我只能提醒自己不要过分沉溺于网络中带来愉悦感的内容,保持对未知事物的好奇心并且抓住了解它们的机会,以此来尽量避免过滤泡泡带来思维的定式化。
    王江宁202211110059

  57. 主讲人在本段演讲里提出,由于信息算法的不合理性和不完善,互联网“令人与世界链接、助于民主社会发展和公序良俗建设”的作用渐渐弱化。几乎各大平台的算法会根据你点击内容的顺序、停留时间等习惯,在使用者无法察觉到的情况下就编辑ta的浏览页面。这种转变使得我们被困在了“filter bubbles”中,只能看到算法认为我们想看的,却不能看到我们真正必需的信息,很难看到新的观点。
    结合我自己的实际使用体验,确有这种被算法时时“默默监视”的感受:除了视频里提到的在我首页塞满推送算法认为我可能有兴趣的内容,有时和朋友刚微信上聊天提到想吃什么,打开外卖软件搜索栏也会自动出现它,甚至浏览完一个视频在打开搜索栏,搜索栏里会自动出现刚浏览过视频的相关内容。这种算法的设置本意是为了迎合用户的浏览喜好,从而达到让用户在平台上停留更长时间的目的。正像波茨曼《娱乐至死》中提到的,商人用手段吸引观众,最终是为了换去实际利益。
    演讲者还提到,算法过滤机制某种程度上代替了报纸、广播盛行时代的专业编辑承担“信息守门人”来替我们决定我们能看到什么,更糟糕的是算法并不像人类编辑一样有道德和责任感。新媒体时代具有个人发表出版成本低的特点,网络上流传的信息质量本就参差不齐,这些不高质量的内容被算法塞给我们,我们在无意识的情况下被包裹,确实是值得抱有危机感的事。
    演讲者最后说,推送的依据不应该只有与用户常浏览信息的相关性,还要包括重要的、有挑战的、利于改善公共生活和提高公民责任感等指标。要把选择看什么的权利交还给用户本人。我个人感觉等这样的期盼实现是很难的,还要个人保持主动学习的习惯,多多主动获取而不是只看推送来的内容。(但是个人认知也很有局限,只能尽量在现实中多跟人交流,保持思考)
    马一可

回复 Wangzitao 取消回复

您的电子邮箱地址不会被公开。 必填项已用*标注

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据

%d 博主赞过: