《Eli Pariser: Beware online “filter bubbles” #TED#》上有49条评论

  1. 在这个TED之前我就已经体会到了社交网站和其他应用网站根据所谓的用户喜好给用户搜索提供的反馈和搜索结果有所差别的现象。当时觉得这样的按照兴趣和关键词所划分和提供的结果非常方便,但是后来在体验到方便之余却更加深刻的体会到了所谓的“信息过滤泡泡”给我们的互联网生活所带来的局限和不便。
    Pariser在视频也引用了埃里克·施密特的一句话:“要人们观看或消费一些在某种意义上并非为他们个性定制的东西,是很难的。”所以目前互联网网站和基于互联网的应用所普遍提供的这种按照兴趣和标签为用户提供的服务在很大程度上难以满足用户的真实需要,同时也无法体现出互联网网罗天下、包容万象的内涵,并且在很大程度上对用户的需求产生了局限性甚至是阻碍。Pariser在视频中提供的两个朋友针对关键词“埃及”所搜索显示的不同结果就产生很鲜明的对比,这种对比可以放在任何的互联网用户身上,如果基于算法和程序所提供的内容和用户的需求产生偏差而用户又全然不知的话,互联网提供的内容将会渐渐地左右用户的想法,这将是一件非常可怕的事儿,更严重的说,未来的设计程序将会控制人的想法,使人的想法按照程序的设定来进行。
    所以“信息过滤泡泡”在用户全然不知的情况下将不同的用户按照不同的分类划分到不同的泡泡中,这样温水煮青蛙的方式很难使人察觉也很难使人脱离它所带来的方便,但在媒体传播的历史进程中也有相类似的事情发生,所以我们必须发现并觉醒这种变化将给我们带来的后果,对用户个体来说,就是不要在“信息过滤泡泡”中失去自己的判断。

  2. 这场演讲主要讲了:随着网络公司努力根据我们个人喜好调整其服务(包括新闻和搜寻结果),将产生一个危险且意想不到的后果:我们被困在一个“过滤泡沫”中,而得不到可能挑战或扩展我们世界观的信息。Eli Pariser强烈批评,这最终将被证明对我们及民主产生负面影响。
    “但几个星期前,我请一群朋友Google‘埃及’这个字,并将他们所得结果的屏幕截图传送给我。这是我朋友Scott的屏幕截图,这是我朋友Daniel的屏幕截图,当你把它们放在一起,你甚至不必详读这些连结,就可以看出这两页有多么不同。但当你确实读了这些连结,这实在令人讶异。Daniel的第一页Google结果没有任何关于埃及的抗议活动,Scott的结果则满是这些,这是那时当日的大新闻,这就是搜寻结果如何变得不同。”可以说是这场演讲中最直接最典型的一个例子了。其实何止是Facebook,Google,雅虎。。。包括百度上“身边热搜”这样的主动推荐的功能,就是专门针对不同位置的人有所不同,甚至隔几千米就很不一样。
    首先我觉得这样的算法和功能的出现,本身是出于服务大众的目的,比如确实如果我们能更早的获得身边的信息肯定是一件很方便实用的事情,毕竟我们最关心最有用的还是身边的人和物。
    但是我们同时也不得不意识到,“信息过滤泡泡”确实是一个bug,我们“被屏蔽”掉了很多的信息,而没有选择权,而且这种选择不是有管理机构与人员造成,而是一种没有道德概念的计算机算法带来的。所以,我觉得为了更民主更广泛的社会环境和网络环境,确实需要改进相关的运营机制和算法,当然这应该会经历一个相当长的时间来探索和磨合。。。

  3. ted主要向我们讲述了“过滤泡泡”。
    事实上,过滤泡泡已经应用在了很多app上,例如LOFTER、澎湃新闻……当我们第一次打开这些app,总会弹出来各种各样的兴趣标签让我们选择,为我们定制了不同的个性化浏览页面。一方面,这种过滤确实能让我们最快捷,最直观的看到我们想看到的内容,但是从另一方面说,它也间接性的屏蔽了相当一部分信息,有悖互联网兼容万象的概念,甚至很多信息是在我们不知道的情况下就被筛选掉了,如果这样发展下去,这些算法很可能会完全左右我们能看到的内容,甚者,未来某一天,形形色色的“过滤泡泡”会左右我们的社会民主和社会进步。
    “过滤泡泡”在产生之初,是为了优化大家的互联网体验,也确实给大众带来了很多便利,但我们确实不能忽视“过滤泡泡”带来的弊端,一个从熟悉中构建的世界并没有什么好借鉴的,如果个性化太严重,它可能阻止我们在破除偏见经验中交流,也有可能阻碍我们对世界和我们自己认识的思考方式的改变。
    确保个性化避免这些陷阱,还不算太晚,就像ted结尾说的那样,让算法更加透明化,也是十分必要的。
    程一帆

  4. 关于“过滤泡泡”
    如Eli Pariser所说,这确实是一个非常隐形的难以察觉到的过滤机制。曾经用手机搜索出的结果,再用电脑搜索却无法查到,才对此产生疑问。但一般是不会察觉到这种“个性化定制”的过滤泡泡已经潜藏在各大搜索引擎和社交网站。
    滤泡泡“认为我们想要”的信息不等于“我们需要得到”的信息。在这个多元化的时代,我们也需要看到更多其他的观点、信息,而不是被局限于个性化的页面。当然通过筛选可以得到更贴合自己的页面,但我们也应该有权利自己操控信息的审核,而不是智能机器。

  5. (刚开始点开视频发现全是英文,觉得天呐难道只有我一个人听不懂吗?!然后很不甘心地去网易公开课里找到了这个视频叫做“伊莱·帕里泽:当心网上“过滤气泡”看了中文字幕版,然后点回来评论才发现 其实原来的视频就可以选择字幕啊……大概是刚看完书画完导图有点懵= =|||)
    举个不太恰当的栗子,生活中最明显的感受到这种过滤是淘宝的推荐,购买过一种产品就会不断被推荐类似的东西。但是如果是别的搜索引擎或是社交媒体的过滤,可能真的会带来很多不必要,会得到很多“信息垃圾”。通过数据只留下看起来我们“感兴趣”的东西也许并不是我们真正想要的。细密的算法创造出来的世界是生硬的,也是局限,我们需要听到不同的声音,这样才能够建立一个恰当的体系,跳出自己的惯有圈子,看到那些不常见的东西,才是真正的互联网的意义吧。

  6. 首先谢谢那位说字幕的同学,不然我也可能要去其他网站_(:з」∠)_说实话,我虽然知道类似淘宝京东这样的购物网站会根据以往点击等信息得知用户喜好然后进行推荐,没想到的是原来很多搜索引擎也有这样的设计。刚才查了一下我和舍友的百度“埃及”,是一样的,可能这种设计在中国还不多?不太了解,想去了解。“过滤泡”思细级恐。你永远不了解你想象之外的这个世界,可能这么说有点夸张,但这是我看完这期ted以后脑海中最先浮现的想法。

  7. 个性化的搜索结果或者新闻推送等,确实是快速找到自己兴趣相关内容的有效途径。然而人们总还是需要知道自己兴趣之外的东西,否则对这个社会的认识将会产生偏颇。并且有的网站点开时,里面会有一些跟之前搜索的东西相关的内容,既让我产生不安全感——我好像被人监视着。

  8. 信息过滤泡泡确实给我们提供了很多方便,我们可以更多的接触到我们感兴趣的信息,比如我们可以更加便捷的接触到与我们所学专业相关的信息。但是,生活在这种“泡泡”之中,就像是生活在一个牢笼里。我们接触不到其他的信息,我们活在一个由机器为我们打造的世界里。我们可以只看我们想看的,这是我们选择的权利,但网络不能只提供我们想看的,而过滤掉那些可能并不是我们感兴趣的却又重要的信息。我们可以选择,但网络不能替我们选择,这实际上是侵犯了我们自主选择的权利。与其生活在这种自欺欺人的“泡泡”里,我宁愿生活在一个真实的、多彩的现实世界。

  9. 信息过滤泡泡这个名词之前没有听说过,但是类似的事件我看到过也经历过。几年前的焦点访谈曾报道过一个大学生因为好奇在淘宝上搜索棺材,此后的将近一个月的时间里他的淘宝首页都在给他推荐各式各样的棺材。而且日常生活中的淘宝、网易新闻等都有针对用户个人的个性化定制推荐。这些行为给我们的生活的确带来了一定的便利。
    但就像是TED中所说的,我们的搜索引擎正用过滤器和算法为我们创造了一个世界。而我们就身在这样一个信息过滤的泡泡中,根据我们的浏览历史,计算机算法控制了信息的流通,只向泡泡中的我们输送它认为我们想要的信息,而泡泡里的我们看不到外面的世界,认为我们接收的信息就是世界的变化。这种个性化定制服务便利用户、增加用户的体验好感的初衷已经转变为蒙蔽用户双眼的实际效果。
    就像Pariser在TED最后提议的一样,个性化服务可以继续进行,但必须保证提供的不仅仅是“相关”信息,还要有一些不喜欢但是很重要有挑战性的信息。算法需有职业道德,应该考虑用户的公民责任感和公共生活。算法也需要一些透明,让用户了解到其运行的规则,给予用户一定的管理权限,让互联网环境更加民主更加公正。

  10. 信息过滤泡泡是在互联网时代通过互联网过滤器推断出用户喜欢、关注或类似的东西。这种信息的过滤筛选基于每个人的“喜好”并提供相应的服务。不可否认,信息过滤泡泡有时候的确能够帮助我们减少获取一些信息的步骤与时间成本,但是这可能会使人坠入它的“陷阱”,有时候可能我需要的信息不同于根据我所谓的“喜好”所筛选呈现出来的信息,相反如果我需要看到的是另一面的信息,这样的检索内容将会让人大失所望。而且这种信息过滤一定程度上很像是个性的放大,以及个性在互联网上的反馈,过滤他人的个性,一味放大自己的个性并不能改进人与人的沟通交流,而沟通交流很大程度上依赖于信息交换。

  11. Eli认为互联网神通广大,个性化推荐让人大呼过瘾,但是却产生了弊端,这种个性定制的标准本身存在着问题,人们想要看什么,互联网会送上什么,好比,一个人喜欢吃冰淇淋,它就会每天做一份冰淇淋,但是只吃冰淇淋会牙疼。同样,根据喜好推荐容易让我们接受的信息趋于片面,其实,互联网的发展方向更应该人性化,智能不代表人性,它的定制标准更应注重人需要什么,而不只是逢迎市场,考虑人们喜欢什么。

  12. 每个网站都在尝试更加了解每个人,我们喜欢什么,我们对什么感兴趣,然后尝试向每个人呈现他们喜欢的内容,从而提高效率,提高满意度。结果是,我们所看到的、了解到的内容,便是种种网站、种种app过滤后的、它们认为我们感兴趣内容。但是,我们需要了解的,并不只是这些。泡泡外的内容,或许让我们觉得没那么有趣,但是仍然是我们所需要了解的。

  13. 看完视频以后 我对信息过滤泡泡第一个最直观的反应就是淘宝网(不知道对不对)在我手机上 用淘宝搜索同一件关键词商品 出来在首页的 可能是我曾经关注过的店铺 或商品 排在前面的都是符合我自己所喜爱风格的商品 而用我妈妈的手机搜索 出来的是偏向老年化的物品 基本上不同的人用各自的手机 搜索同一件商品的关键词 出现在首页的商品风格各异 但是却是符合搜索人审美偏好的物品 这极大方便了使用者的体验 也在一定程度上刺激了消费 为消费注入动力
    从某种程度上来说 信息过滤泡泡为互联网的发展和信息的交流提供了动力 信息过滤泡泡关注的是我们所喜爱的东西 并试图推断出来 在互联网生活中 各式各样的搜索引擎为我们每个人量身订造了一个强大 全面的个人信息库 利用这个信息库 商家可以更加准确的了解用户的喜爱 创造更多的经济价值 例如百度搜索引擎 当我们曾经多次搜索过同一内容时 页面的两侧会出现与之相关的广告信息 相比撒大网捕鱼的广泛投放 这种广告更具有针对性 更能快捷找到消费者和用户群体
    不过 生活在一个泡泡中是否也有弊端? 一切都留给自己的设备来处理 个性化
    过滤器服务成了一种无形的自动宣传工具 将自己的想法灌输给我们自己 放大我们对所熟悉的东西的愿望和期待 导致我们可能无法接触新鲜的事物 自我封闭在一个熟悉的小圈子中 无法激发新的兴趣和爱好 可以肯定 一个从熟悉中构建的世界是没有什么可借鉴的 如果个性化太严重 它可能阻止我们在头脑风暴 破除偏见经验中交流 也有可能阻碍我们对世界和我们自己认识的思考方式的改变 换种角度来说 我们无形之中接受着来自搜索引擎的各种信息灌输 但是这些信息无法保证都是有益的 我们要自主的进行筛选

  14. 最近一段时间伴随“大数据”出现的就是“个性化”,在中国最显著的就是体现在淘宝购物上,每次首页每次下拉都能看见淘宝为你订做的购物清单或者推荐好物。或者在微博的热门推荐,时不时出现在你首页上的广告,都是经过了无数计算。在中国虽然互联网搜索还没有达到这样的程度,但是仍然,每一次点击每一次搜索每一条链接都是你的印记。
    我曾经为了宣传买过微博推广,申请页面上真的会出现你希望推广的内容分区,反过来讲,其实某些时候你的账户就已经被微博打上了标签。你是个追星族,你是个二次元,你是个美剧粉或者是个愤青,分门别类。于是出现在你首页的东西也都大部分和你心意。
    我并不太清楚这出现在日常中算不算件好事或者像主讲人所说那样劣势过重。因为这样的过滤确实不可否认的为我的生活带来了便利——当然,在搜索引擎中又是另一说——至少在淘宝微博上,不管时候误还是看一些热门,都是适合我并且让我轻松的。
    可是牵扯到搜索引擎,它又过于友善了,可能我想要找的东西并非是我喜欢看到的,而它就这样过滤掉了,反而更可能增添麻烦。或者它呈现出的一切都是我们希望看到的,那是不是我们救护因此忽视某些真实呢?
    某些时候,这样的过滤给我的感觉就像是一个过度溺爱孩子的母亲,她顺从着孩子的一切把那些孩子乐于见到的事物奉上,而其实是怎样的,而这样做到底正确与否,却又很难定论了。

  15. 看完这个视频,我首先觉得它有一种悲哀感,就像教育中常说的溺爱一样,用户喜欢什么就去迎合他们的个人爱好,向用户输送他想看到的那部分的信息,让用户对世界的了解仅仅局限于一个相对十分稳定的圈子,形成以用户为中心的一个小型世界。现在绝大多数网站都采取了推荐算法,比如亚马逊上的图书推荐也是基于用户群体的兴趣相近。推荐算法虽然为用户打造了一个专属的个性化世界,便于用户找到同好或圈子里的有用信息,但同时束缚了用户本身信息量向外的拓展,就像Pariser说的,对我们自身世界观价值观等的发展是有害的,甚至对民主也是有害的。

    另外,这也是当代创新的因素相对于上个世纪来说显得不那么明显的一个原因,人们获取信息的渠道被无意间无形中堵塞而人们还不自知,局限于固有的信息圈和同类信息中无法拓展向新的领域,减少了信息融合的产物,就像艺术家只关注和接收艺术相关
    的信息,而从不关注科技、政治之类的话题,他的创作就受到题材上或者灵感的限制。

    因此我认为,适当的兴趣推荐是必要的,无形之间的信息过滤就显得专制了许多,如果任由其发展,极端地来说有可能会造成重回中世纪的可怕局面,因此适当的时候需要相关法律来约束推荐算法的不当使用。

  16. 我们在这个选择极大丰富的时代,人们却仿佛面临着选择越来越少的困惑。其实不然,我们从来都是生活在泡泡里,人们不能全知全能。对比历史,我们已经有了相当大的进步。能够接触自己喜欢的东西,了解关于它更多的信息、不断深入的研究,我想这是互联网时代给予我们的馈赠。信息之间无法完成绝对的平等,被偏爱的总会拥有更多特权,被放弃的则会慢慢遗忘。过滤泡泡正是起到了这样一个筛选的作用。
    人们很难将筛选信息的权力完全交给算法,同样,也不能安心完全交给工作人员。他们渴望“合理膳食”,需要透明化流程才能够吃的安心;却每天食用着“垃圾食品”享受着精神上的欢愉。这种“挑食”会导致极端个人主义和思想固化,因此我们要做出改变;使网民获取更多的信息【少量、温和的不同观点】,提升网民素质和企业政府管理能力。
    我想这是一个“全民近视”的信息时代,过滤泡泡是不能缺少的眼镜,看的更多更远更全面是我们努力的方向。不要因为度数不合适的眼镜迷失方向,前行的道路始终在脚下。

  17. 这个演讲说明了关于网络信息个性化定制的弊端。
    信息个性化其实很早以前就已经出现,甚至是作为一些网站的卖点存在。比如lofter,它就是打着让你找到你的兴趣圈子所存在的,因此这种个性化的,给你贴上标签的信息过滤难以避免。
    但是这个演讲里面还提到了一个事情,就是人是灵活的,我可能80%的时间都在看文学,但我也有20%的时间可能会想要看看国际时政、娱乐、时尚等等。单从兴趣口味来过滤信息的弊端非常大,这会直接导致信息的不平衡,包括其中所谈到的“真正的民主”,比如你是个保守派,你就完全有可能因为你经常获取的信息的不同去选择支持希拉里还是川普。听上去这有点像幕后黑手掌控的世界,但是实际上这都是不可控的,没有人在掌握,仅仅是一个好意的设置导致了这种结果。

  18. 我认为“信息过滤泡泡”是一种算法机制,后台通过大数据观察我们每个人平时爱看的内容和方向,来给我们推送或者在我们搜索时出现与我们平时感兴趣类似的内容。我认为我们每个人都身处这种泡泡之中,这是互联网公司为了获得更多点击量和用户使用量所使用的手段,但是它却让我们每个人在互联网处在自己的一个小世界而对外在世界不了解。
    虽然存在种种壁垒,但我认为我们也许也有方法可以打破,那就是利用这种机制,让算法以为我们喜欢那些我们不喜欢的东西(我们平常不经常搜索的东西),进而获得那些方面的推送。举个例子,虽然可能不太贴合,但我认为可以生动一点。比如我剪辑一个视频,然后需要一个壮阔的背景音乐,但我平常根本不听这种类型的纯音乐,我也不知道太多这方面的音乐。于是我就可以先搜索类似这个要求的音乐,然后不断点击给我推送的音乐,这种算法会让我听到的音乐慢慢接近我想要的。最后,列表里面就都是“壮阔类型的纯音乐”了,我挑选的余地也大大增加了。这是我之前试过的利用这种算法机制来得到自己想要的经历。
    当然了,我认为这种让算法以为我们喜欢我们不喜欢的东西进而获得那些推送我认为是一种很低效的解决方法,最好的解决方法还是应该从本质上解决,就像视频里所说的,让我们看到内容不应该是代码所干的事,程序员应该介入其中或者优化这个代码,让每个人可以在互联网中不是一个个孤岛,而是可以有机会去感受和了解这个多元的世界。

  19. 互联网的信息过滤,一方面成功的为用户定制了个性化的信息,另一方面屏蔽了很多“有意义”的信息。对于淘宝、lofter之类的网站来说,信息过滤无疑是有益处的,可以让用户快速找到自己感兴趣的东西,尽量少看到没兴趣的东西。但是如果这种现象无处不在,就会在一定程度上影响人对时事消息的获取和判断,平台获得了决定是否让一件事被人们知道的权力,虽然更多时候这种权力的行使者只是一些算法。
    演讲者认为这种现象的弊端在于1、算法不能保证信息的平衡。2、被“个性化”的用户本身很难介入信息过滤的过程。同时演讲者举了人类小编筛选信息的例子,但是机器算法的产生就是对人类小编一种更廉价和高效的替代。现在是一种一个新事物没有限制的发展随后跑偏而后亟待规范限制的阶段。
    随着现在的信息量越来越大,一些筛选推荐的算法是必要的,很多时候人们打开微博只是想刷一刷,没有特定想搜索的内容。我认为应该对不同种类的信息有区别对待,就像大学生可以选自己感兴趣的课和必修课。

  20. “信息过滤泡泡”即网络公司运用推荐算法对用户搜索、浏览的内容进行“个性化定制”的现象。
    算法将用户较少或可能不会关注的信息过滤掉而仅展示用户较多关注的内容,这确实使我们使用这些app、浏览网页时更加高效——我们可以第一时间看到我们感兴趣的人和事,在茫茫知识海洋中寻找信息所需要的时间被大大缩减了。
    然而看似贴心的过滤也带来了不容忽视的副作用,它使我们每个人都困在了一个个封闭的、个人的网络空间里。这一现象在现今我们的生活中已经屡见不鲜,我们甚至可以明显的感受到我们正被困在这样的泡泡中——在淘宝app中搜索一种商品后同类商品大量出现在推荐页;知乎推荐页里的问题好像总是关于之前浏览过的那几个话题…久而久之,群体极化现象会加剧——我们只能看到我们赞同的观点而与我们观点不同的内容被屏蔽掉,这让我们更相信自己的观点,从而采取更极端的立场。互联网这个原本民主的、信息自由流动的平台反而逐渐限制了人们的视野,阻碍了多元化观点的交流,有时也会蒙蔽事情的真相。
    而打破这样的壁垒,我认为正如演讲者Eli Pariser所说:“平台管理者应当确保这些算法有一定的透明,使人们能了解些那些决定什么能够通过我们的过滤器的运行规则。”平台作为算法的设计者、信息流动的管理者,应该对此肩负起主要的责任,让算法更加透明。同时,为了在用户更好的长期留存与信息自由流动之间找到一个合适的平衡点,内容服务商就势必要不断探索用户的内容兴趣偏好、了解用户的观点偏好,去更好的迎合用户不断拓展的兴趣认知、提供更多用户讨论和互动碰撞的空间,也需要更多的去考虑到公共生活和公民责任的重要性。

  21. “过滤气泡”让我们不再能够通过互联网看到整个世界、连接所有人,我们的视角因为精准的算法而变得越来越狭窄,越来越单一,我们在互联网上遇到的人越来越贴合我们的现有的取向,社交网络渐渐囿于更小的圈子。个性化推荐看上去似乎让我们可以更快找到与兴趣贴合的的内容和用户,我们的偏好、兴趣、审美影响着算法的精准推荐,而算法的推荐也正在潜移默化地塑造着我们。就像Eli Pariser所说的那样,改革派的他在精准算法的作用下难以看到保守派的言论,这极有可能会隐性地、缓慢地影响他的政治观点,非人工的、冷冰冰的技术、算法,正在影响着我们成为怎样的人。Eli Pariser提到用户应该拥有“管理权限”,这样我们可以决定什么信息可以通过,什么信息不能通过,可以避免垃圾信息,我们如今可以选择的“不感兴趣”,是否属于“管理权限”,但这样是否也会让算法推荐更加精准、狭窄呢?Eli Pariser也提醒了我们应当了解过滤器的运行规则,算法也应担负道德责任,先进技术不应成为阻隔我们和更广阔、多元世界的高墙。前一段听戴锦华老师的讲座,她提议我们可以多主动检索,而非被动接受算法推荐,但Eli Pariser的演讲中展示搜索出来的结果居然也是算法的个性化定制了……太可怕了……

    1. 戴老师建议的检索同样是被过滤后的结果…其实也没什么好办法

  22. Eli Pariser所提到的”过滤泡泡”并非新鲜的概念,我们都知道当今互联网上的各类社区都或多或少存在一些个性化定制的推送算法。这种机制也经常作为一种正面积极的功能出现在一些社区的宣传广告中。然而似乎极少有人看到其负面作用,正如Eli Pariser所言,你无法决定自己“不看什么”。我们在算法的过滤之下,被动的住进了信息茧房。
    有人或许会反驳,认为这种个性化定制的算法本身就是基于个人的用户习惯进行运作的,而本身不看某些自己本就不愿意看的内容也不会有什么负面影响。然而,我们或许应当思考一下,我们自身的习惯和需求是由谁定义的? 是由社区定义的吗? 显然不是也不应该是。只有我们自己能够定义自己的需求。正如Eli Pariser所言,社交媒体至少应该给我们一些控制权,让我们决定哪些内容能够过滤而哪些不能。另外,被动的不看自己不愿看的内容,可能造成比我们想象中更严重的后果,例如,脸书基于Eli Pariser本人的改革派身份而”编辑”掉了那些保守派的用户,这其实直接导致了Eli Pariser完全无法看到保守派的观点,而只能看到改革派的言论,那么他就有可能无法对二者进行比较,他的政治倾向可能在潜移默化中变得更加激进,他甚至可能认为改革派观点已经是社会主流,大势所趋,因为他只能在网上看到改革派。
    Eli Pariser最后提到了解决方案,即将控制权交给用户,事实上我对此并不持乐观态度。这些互联网社区是商业化的,运营者首要考虑的经济效益。为了提高用户粘性,他们大概率不会抛弃这种机制,因为它满足了表面上的用户需求,而大多数用户确实只希望看到自己想看的。

  23. “信息过滤泡泡”是指一些互联网公司,基于大数据技术与算法程序,根据用户的所在地区、使用时间和浏览内容生成用户习惯,通过算法为用户创造个性化界面体验。
    如今互联网时代、大数据时代,大数据技术是一个不可或缺的技术,大多数地方都运用着大数据,如疫情时期,疫情期间个人在14天期间的出行路线,是否经过高中风险地区;各地区确诊人数、治愈人数等;学生上网课时也会给你匹配你所感兴趣的学习内容。现在很多网站、应用软件都会根据大数据用算法为你推荐你感兴趣的内容。像抖音,它直接单独列出了一个导航栏就是推荐,而且一般你打开默认的界面就是推荐界面,它会根据你所点赞或者下载的视频,或者是“驻足”观看时间比较长的视频的类型为你推荐同类型的视频,也会根据你看那个博主的视频比较多,即是你没有关注她它也会一直跟你推荐,我认为这就是运用了一定的算法,把我们用户圈定在各自的泡泡中。让我们只能接收自己的所感兴趣的东西,接收自己所赞同的观点,让我们只局限于一个单色单调的世界。互联网为我们带来了多彩的世界的同时,随着技术的不断发展,“信息过滤泡泡”的出现,又再次让我们回到了单调的世界。我们现在都处于“信息过滤泡泡”中。
    如何打破这个壁垒呢?互联网中运用算法本身是好的,可以为自己带来更多的观众,但是不能一味用算法推荐给用户们他们感兴趣的内容,要根据大数据所收集到的用户的赞成观点,推荐一些与之相对的观点,只要没有涉及到绝对的三观的错误,都应该让用户接收一些不同的观点。这些网络平台公司的设计者及运行着应该肩负起这个打破信息过滤泡泡壁垒的责任,平衡用户的习惯体验和信息多样化和丰富化体验。而且一些信息多样化传播的传媒账号应该进行一些强制性的推荐,就像社会新闻和国家新闻这种新闻类媒体,实时出现在信息气泡中,就像如今抖音、微博、微信等都有一些新闻推送,即是用户习惯没有新闻类,但他会有推送,让我们了解社会事件,国家发展等。

  24. “过滤泡沫“指互联网用户受网络内容算法编辑的影响,其信息环境越来越个人化的现象。Eli Pariser提出这个概念,让听众不由自主去反省、去思考自己所处的网络空间是否是由算法和”守门人“即编辑者搭建出来的一个“密不透风”的气泡。这个过滤气泡会由编辑者的代码将用户的兴趣话题聚合,同时渐渐剔除用户不感兴趣的声音。随着气泡内容趋于稳定,每个用户虽然同处一个网络空间,但所见内容却大不相同,形成了“孤立的气泡宇宙“。而这样的隐形的过滤规则弊端是用户不会思考的,造成一系列对人的影响更是潜移默化的。
    我认为网络是很好的连接不同的思维、不同的观点的媒介,它给予每个用户接触更广阔的世界的窗户。然而过滤泡沫的存在让这样的窗口缩小再缩小,最终只聚焦于某个点,我认为这就失去了网络广阔的优点。诚然,在过滤气泡里冲浪是愉快且上瘾的,但就如Eli Pariser所说,我们失去了了解其他观点的机会,失去了成为自己想要成为的人的渠道,反而在目前的视野里沉浸的愈发深入。
    孤立在个性化的网络中,人的思维和视野都是局限的。我认为如今网络里常见的激烈的矛盾都是因双方长期接受一种声音的熏陶所起。所有用户都以为自己所见即是世界,长此以往是在消磨人的同理心、宽容度。也许Eli Pariser对互联网从业者提倡道德责任也是从这个角度出发。
    我认为作为普通的网络用户,在了解各式各样的算法后需要保持自己的辨别能力。毕竟在当今网络如此庞大的信息流中对所有信息一并接受是不可能的,客观上我们利用算法节省时间(这也是我认为算法是必要的原因)。拒绝沉溺、保留对陌生事物的好奇心和宽容则是我们突破过滤泡沫的方法。

  25. 当科技取代人本身可以做的事情的时候,人就已经被操纵了。我们浏览,依据当时的需要和兴趣去选择信息的过程,算法替代观察、思索、筛选的过程,移除了思考,事情就不是我们“想”要的了。当需求被剥离了,其实浏览这个过程也无意义。“异化”被反复的提起,“异化”本身却也成为了一个制造异化的产物,非常黑色幽默。此外,当数据监测越来越灰色地去侵蚀我们的空间,从七八年前的历史记录小广告,到现在的输入法词频记录、手机连接信息记录等等的东西,这种侵蚀的进程被加速到了无以复加的地步。无论我们将制造着一切的那只手标签为什么,某种绝对存在似乎正不断被制造着。这个过程早已逾越了呈现当代人的需要,节省时间这一类堂而皇之的名词。
    好在,这个过程也让人们逐渐开始思考如何重新获得自己的控制权了。希望每一个人的每一次点击都是有着先入的意识的,意识到自己的一次手指发力关联到什么,至少有去意识的意识,就能改变一些东西。

  26. “过滤泡泡”让我想起了《1984》中集权制度的国家为了封闭人们的思想,控制媒介(报纸、广播)的传播内容,以此改写历史。在篡改的历史中,他们永远是和平民主的象征,人们对此深信不疑。那么在当今的大数据时代,当权者(国家、网络运营商)只要愿意,就完全可以制造这样一个社会。“过滤泡泡”的功能机制与《1984》中集权国家控制思想的手段完全一致,只是目的不同罢了。
    另外,我不认为大数据分析并提供用户感兴趣的内容是对该用户热爱的领域的促进,相反,这激发了(有好奇心和上进心的)用户探索自己感兴趣以外的领域的欲望,当然该用户要意识到网络空间具有“过滤泡泡”这个东西。因为人的欲望是在限制中产生的,欲望又是动力的主要来源,在这些用户发现自己处于一个封闭的空间时,他感受到限制,随后产生欲望跳出封闭的空间,探索未知领域。现在我有个感受就是,对于那些容易获取的碎片化信息提不起兴趣,必须强迫自己阅读才能读进去。但如果我辛辛苦苦找一部电影或者读一本书籍,就会很快投入进去。
    如果让我提出打破“过滤泡泡”这一界限的方法,还得从人的内心出发,保持探索未知的欲望,具有这一点,就可以把“过滤泡泡”变成一个促进的动力;当,对于那些无所谓的人,“过滤泡泡”帮他们筛选出不感兴趣的内容,也算是有用。

    1. 那你很特别啊,对碎片化不感兴趣,喜欢深度投入的东西。

  27. 我认为技术无罪,算法本身是无辜的,问题的关键在于使用算法的是谁,他们的目的是什么。对于商业公司如Facebook, Google来说,他们是被单一目标:盈利所引导的,相关性高的内容用户爱看,用户能为公司带来源源不断的浏览、点击和行为数据,那公司就没有必要出于良心,开发更符合道德和公共责任的算法。

    对于用户来说,我们以为自己活在全知的信息世界中,但实际上,它被更精致、更强大的游戏规则设定,让我们对自己失去了什么全然无知。我们以为大家活在同一个世界,实际上每人看到的世界截然不同。

    我最强烈地一次感受到自己与主流的割裂,是在2019饭圈女孩出征事件中。打开知乎,大陆的官媒和舆论都在赞扬、支持征战香港“废青”的这种行为。但在我看来,这件事将政治娱乐化,人们狂热得可怕。我不禁怀疑,自己对事件认知是不是出错了?我了解到的是真实客观的事件真相吗?是否骂战两方的信息渠道本就不一致,而不自知?

    引用一段读到的话,“信息战也正是在这样的基础上,才如病毒一般有效:信息战的武器,并不是虚假内容本身,而是被它调动起愤怒或者厌倦情绪的我们每一个人。”

    不过,anyway,我觉得解决这个问题并不难——把定制开关的权利还给用户就好了。如果用户想跳出泡泡,重视信息的多元化和客观性,那就关掉个性化定制;如果用户想要轻松获取更对胃口的信息,那就使用个性化定制。用户已经意识到了信息茧房的问题,再结合近年来用户对隐私的重视,不少产品已经被要求加入了个性化定制的开关。我去看了一下,谷歌搜索的界面中就有详细的解释,用户信息是怎样在搜索过程中被使用的,谷歌也提供了很多选项,能让我自主定制自己的搜索结果。
    https://myactivity.google.com/privacyadvisor

  28. “过滤泡泡”的现象很普遍,大多数时候并不是很难以察觉。我们都能意识到淘宝的“猜你喜欢”猜的很准,视频软件使用过程也有所谓“凭本事刷到”的情况,但对于这些情况我们往往(至少我个人)不会很抗拒。信息偏食是人性使然,从传统媒体时代就有这种现象。
    这些大多是算法在商业娱乐领域的应用,但是像Pariser提到的,“不会再有标准的谷歌”,当思想意识层面和知识的内容分发也被算法变得“个性化”,就很病态且不易被用户察觉了。
    人们本身就有信息偏食的趋向,在传统媒体时代,面对同样的一份报纸,每个人都更倾向接触与自己原本立场相同的信息,但当主观的思维惰性使然变成被动地接收算法分发的内容(而且没意识到信息被过滤)的时候,就会对自己的观点越发偏执,思维模式逐渐固化。或许个人和群体更加极化,不同群体之间的冲突会更加严重?
    Pariser提出希望算法更加透明,用户能够参与过滤器的运行规则制定和管理权限。但是如果真的这样,过大程度削弱算法会不会造成信息爆炸冗余?而当用户自己能够自主决定过滤机制的时候,会不会因为本性依旧习惯信息偏食?——就像传统媒体时代,在一张包括各种信息的报纸上,只重点阅读自己感兴趣的板块那样?
    关于过滤泡泡,我的第一反应是 算法好可怕,但在网络信息时代,海量的信息如果没有算法的组织也很麻烦。或许并不是算法太“霸道”,而是它还不够成熟?当然,仅仅依赖算法的筛选并不可取,我们应当积极地自主筛选获取信息。至于,“互联网变成我们所梦想的那样”,可能还需要更多磨合吧。

    1. 梦想就需要大家一起努力去描绘,到底是什么样的梦想与未来

  29. 算法推荐技术在某种程度上解决了信息泛滥的困扰,在当今信息爆炸的时代,个性化推荐相当于对用户进行“信息膳食”,他根据我们的行为和喜好为我们筛选信息搭配信息,使我们在网络获取信息的时候更加高效。
    但是,算法给我们带来了便利,也带来的恐慌。我们知道,高质量信息的其中一个重要保障,便是多样性。多样性是保证公众充分知情的前提。而算法的出现,正是成为了为我们定义喜好的“看门人”,随着算法不断地聚合和排除信息,最终形成一个稳定的,独立的网络空间,我们只能看见算法却认为我们想看到的东西,长期生活在缺乏多样性的信息的网络环境中,更会导向人们错误的认为“所见即世界”,甚至决定了我们如何思考,更加可怕的是,这样的坐井观天是完全被动且不自知的。
    我不禁发问,如果互联网的出现是打破封闭,将人们连接到一起,那算法的应用是否又将我们打回封闭之中呢?个人的喜好应该由个人定义才有意义,就像Eli Pariser所说,应该将让算法更加透明,将筛选信息的权利还回到用户的手中

    1. 可能还是利益的诱导,让大公司们采用了这样的算法

  30. 我所认为的“信息过滤泡泡”,是指基于算法,通过收集用户的各种信息,筛选获得用户或相似群体良性反馈的声音,使用户得到“个人定制”的信息获得系统。“信息过滤气泡”是信息茧房的产物,它导致人们只看到他们想看的东西,听见想听的声音。如果放任其发展,最终会导致个体认知的固化和网络社会的冲突。
    对于现在的人们来说,“信息过滤气泡”是十分常见的现象。比方说,同样是打开b站,我的首页推荐大概率是是明日方舟相关创作和罗翔说刑法,但别人的可能就是油管搬运和鬼畜视频。从这种程度上来说,我们所看到的信息是与我们个人成强相关性的内容,这些内容也正是我们更易接受的内容。然后,我们会从只看得到我们想看的东西,变成只看我们想看的东西。原有的思维体系、价值体系逐渐根深蒂固,我们会变得不能接受与我们意见相左的内容,每个人与他人都隔了一层“可悲的厚障壁”。
    但是,个人乃至社会的发展进步,正需要不同观点的碰撞与交流。如果我们连其他的观点都无法接受甚至接收到,那么又谈何发展?所以说,这种信息壁垒是需要被打破的。
    依一隅之见,要打破信息壁垒,本质上是要对抗算法。尽管在初期,对信息的筛选是应对信息大爆炸、帮助人们处理多余信息的,也确实为人们提供了便利。但随着科技的发展,信息筛选出现了异化,我们需要对抗的正是这种异化的算法。
    从用户的角度来说,我们可以从两个方面着手。其一,是思想方面。我们需要去认识信息过滤泡泡及其影响,反思自身行为并做出改变。其二,是行动方面。搜索边界拓展。也即尝试使用不同引擎或平台查找信息。搜索方式转换。也就是说,我们应尽量多使用目的性搜索而非无目的性搜索。在无目的性搜索中,我们一味地跟着算法推荐浏览甚至思考,看似收获颇丰,实则停留原地还乐在其中。在有目的的搜索中,我们在一定程度上保持了个人的独立思考,我们所得到的更接近于我们实际需要的内容。
    从平台、软件乃至引擎的开发者的角度,我们应该更新算法,让它不仅围绕相关性,更有重要事件,不同的、乃至颠覆性的内容,有不同的观点。从消费算法的角度看,茧房效应强的“开采”(Exploit)式算法,虽然能快速得到用户的时间、关注,实现良好的短期收益,但从长期的使用体验乃至社会效益来看,是无法与探索用户新兴趣的“探索”(Explore)式算法相比的。
    但是,“探索”型算法也有着短期收益差的劣势,这是不符合资本的要求的。因此,从国家社会的角度,我们应该有更多的政策扶持那些鼓励用户探索新兴趣的平台、引擎。只有得到支持,“探索”式算法才能不仅仅是哄骗投资的噱头,能更好地发展、壮大、成为主流,进而影响人们获取信息的惯性。

    1. 看了大家的评论,我突然发现自己更多是基于一个被动接受“信息过滤泡泡”的角色来提出对信息消费者和开发者的建议的。而从主动的角度来讲,的确用户应该掌握是否进行信息筛选的控制权,而这种控制权的转移更能带来良性循环。

评论已关闭。