SM2022-10周资料及任务

1.计分任务,观看TED视频:Eli Pariser: Beware online “filter bubbles” 思考:什么叫“信息过滤泡泡”,我们是否身在这种泡泡中?当前还有哪些概念来描述类似现象?如何打破“壁垒”?请把你们的想法写下,在视频所在的blog文章后留言评论即可,作为本周计分任务。欢迎同学们探讨评论。

2. 阅读《链接:网络新科学》一书。推荐必读章节:第2-6章,了解:随机网络、六度分隔、小世界、贝肯(Kevin Bacon)数、幂律网络。

4.看电影啦:自行寻找并观摩影片《社交网络》(Social Network),如果没时间全看,请至少看完前40分钟的内容。与下周内容相关。

《SM2022-10周资料及任务》上有17条评论

  1. 这篇TED中伊莱·帕里泽通过类比新闻报纸行业指出在互联网时代中,程序算法将成为新的信息管理者,“假如得不到充分的信息,公民不可能实现有效的民主。”我认为现在大多数的社交媒体算法推送主要起两个作用,让我们看到“我们可以被允许知道的”和“我们可能想要知道的”。当我们获得的信息是片面的,是经过处理过滤的,我们势必难以了解到真相,“过滤气泡”正在将我们引向后真相时代、少数人真相时代、甚至无真相时代。“我们很难看到不是为我们定制的内容”我认为与其说这是算法在迎合我们的喜好,不如说这是算法在引导我们的喜好。让我们更容易的了解到主流的内容,更困难的听到到不同的声音,而这一切可能为的就是让某些人实现更便利的“统治”。这样说可能显得比较阴暗,但是并非空穴来风。这也是大数据时代的弊端,在“统治阶级”眼里,人们不具有独立的思想,无非是一段可以被他们控制改写的程序,他们忽略了太多的“特殊情况”,而这些“特殊情况”在他们眼里就像是bug一样的存在。此时他们只是无心去修复这个bug,但我们不知道,他们是否会某一天心血来潮来修复bug。但我们即使处于这个“过滤气泡”中,也可以努力去打破这气泡,努力去探求真正的真相。

  2. 我认为“信息过滤泡泡“是互联网和计算机算法通过计算用户自身的关注偏好而构建的信息过滤机制,这些机制让我们接收到的信息已经被“我们”进行了适当的选择,从而可以达到推送内容的个性化,提高信息的利用效率。
    不得不承认在信息爆炸的时代,的确需要一些过滤机制来让我们去接受到更加有效的信息。但我觉得,这种过滤机制产生的影响还是需要我们警惕和反思。
    首先,过滤后所接收的信息,究竟是让我们看到了它们,还是别人看到了我们?计算机一直在用各种各样的算法来确定一个问题“我是谁?”,为的是信息能够深入我们的大脑。这样的“过滤泡泡“被用于广告推送和营销宣传会提高供需对接的成功率,为商家创造更高额的利润,为用户提供更有效的选择。
    然而大家对”信息过滤泡泡“觉得隐约不安,可能是因为我们作为一个用户被精准的测算内心所想,有一种隐私被窥探的不适感。这种曝光感的确会引起对”过滤泡泡“的争议。
    其次,这些内容是让“我”成为“自己”,还是在让“我”成为挑食者?就像TED里所讲述的但问题:你不能决定什么信息可以通过“过滤气泡”。我们被个性定制的信息会自觉过滤掉与自己关注点不同的信息,从而形成一种其实不太均衡的信息搭配,我们需要的新的观点,不同角度,立场的信息来完整补充我们对事物的认知。在巨大的信息海洋里,我们都是”挑食者“。
    但是,即使泡泡中的信息带有我们喜欢的口味,我们也需要让自己的信息搭配保持均衡,我认为这样才是一种人性化过滤泡泡的表现。
    第三,谁是我们自己的过滤泡泡的操纵者?表面上看是我们自己,但我认为一定会有计算机算法中带有程序员的各种观念,计算机自己进行的推算,甚至更深入可以是政治层面的话语掌控……不难想象,我们在被获知信息的同时也被信息操纵着,且在互联网时代这种操纵的难度相比于纸质印刷时代要小很多……一部电影,一张图片,一段语音都可以成为传达政治观念的工具。
    所以,我们身处信息过滤泡泡的时候,对信息保持更高的警惕性是应该的。且这个时代对我们明辨是非的能力提出了更高的要求,在冗杂的信息世界里,最好用的“信息过滤泡泡“还是我们的大脑。

  3. 这个演讲提到了一个概念“过滤泡泡”,其实就是大数据分析所带来的个性化推荐。也就是营销方通过用户的点击量、搜索高频词、加入的兴趣圈儿等等,形成针对于用户的一个个数据库,筛选并且制定个性化的推送内容。实际上,这种“过滤泡泡”已经悄然渗透进了我们的日常信息生活中,目前来看,我们已经“困”在,甚至于,我们已经“沉浸”,或者,说的难听一点——趋于或者已经,“溺死”在了这样的“过滤泡泡”中。

    这样的 “泡泡”,不止在网页的搜索引擎,更在APP中内设的搜索、推荐界面中存在,可以说,只要有搜索,就有这样的“过滤泡泡”。经常,我们在使用某搜索引擎一段时间后,会发现,呈现在我们面前的搜索结果界面,满篇都是我们所喜好的内容、所倾向的观点、所关心的事情。

    客观来看,这样的搜索筛选系统,只是将我们的“取向圈”巩固,将我们的“舒适圈”围墙加固而已,是一种变相的“思想囚禁”。在我看来,是一种营销方的迎合,一种盲目的迎合。如果借用演讲中所提到的“编辑”这一监管者的概念,这样的“过滤泡泡”显然是一位不合格的“编辑”。
    经过长时间的“信息过滤”,无形中我们与多样化的世界隔离,我们将被困在自己的“一亩三分地”的思想领地之中,成为另一种形式的“思想落后”。
    这样的境况,在我看来是一种病态的“自我满足”。我们常说要真正了解一件事情,需要从不同的角度来看和分析,但是这样的“过滤泡泡”却在阻止我们多维度地了解一件事情,听到不同的声音,看到更加丰富度多彩的世界,“它们”——搜索引擎和用户数据分析程序——和背后的“他们”——营销方、运营方——在试图蒙蔽我们的双眼,试图将我们困在自己的“小世界”中。这是一种变相的“思想统治”,与昔日秦始皇“焚书坑儒”目的、效果类同,不论“它们”和背后的“他们”有没有起这样的心思,都呈现如此。

    我认为,这样的“过滤泡泡”是在哄骗我们,应当尽早地铲除,至少应有改进,就像演讲中所说的那样,我们不仅仅需要“信息甜点”,也需要“信息蔬菜”。唯有多样化的信息和声音,才能真正打开我们的眼界,提升我们的分析判断能力以及文化素质,我们谁都不希望“固步自封”,最终“思想自毙”思想和心智原地踏步。因而,想要在心理上真正意义的发展和成长,就需要我们快速醒悟,踏出那一步,探索不一样的世界,冲破、挣脱这样无形、温柔、看似无害而实际上十分危险的“过滤泡泡”。

  4. 我们存在于“信息过滤泡泡”(即“算法推荐机制”)中。这种算法通过各种方式,分析个人数据来过滤信息,为受众量身定制了界面结果,进行个性化推送。它会把原本无序杂乱的信息,根据个人喜好或习惯,重新组织成自上而下的排序系统。(还细分为几种类型:基于内容的推荐算法、协同过滤推荐算法和基于知识的推荐算法。)
    我们将身处于一个信息“舒适圈”内,但高度同质化的信息流某种程度上会阻碍人们认识【真实的世界】。这主要是因为算法培养会使人们接触的信息固化,只看我们想看的内容,导致逻辑思维能力、辨别能力下降,产生并强化隔离自我的世界观。我们在喜欢和擅长的领域了解的越来越多,生活在一个所谓的幸福乌托邦里,但对其它领域却一无所知。我们会与有单一共同兴趣点的人产生连接,也更容易避开不同的观念。有时会忽略事实,无法发现不同层面的问题,以至于【公民责任感】趋于淡化。
    面对庞大的信息资源绝对需要信息过滤,但社交媒体也应给予受众一定筛选和获取信息的权利。(不过没兴趣的内容我确实不会多看…
    Ted中给出的观点是“别让算法控制你”,的确,我们需要积累更多的知识储备,与此同时保持冷静的,客观的独立思考能力。但另一方面,我个人还是肯定并认可这种机制,它更深地发掘了我感兴趣的东西,对兴趣培养与专业领域的固化起到了积极作用,比方说我打开B站,首页推荐的都是我所喜欢的视频类型,便于我及时发现、掌握我感兴趣的最新相关内容。

  5. 看了这个TED,大概了解到是关于“信息互联网过滤泡泡”的一个视频。所谓的“过滤泡泡”,就是网络根据你平时上网的个人喜好,会给你推荐类似相关的东西。我觉得我们是身在“过滤泡泡”当中的,就像我们平时在手机上的一些软件,某宝,某书等等,就像我打开某宝,在首页第一时间给我推荐的都是我喜欢的。这些都会根据你曾经搜索的内容试图推断出来然后给你推送相似的信息。然而也因为这个“过滤器”让我们越来越个性化,也因为一直处于“过滤”,避开了外界的新事物,处于在一个“我”的圈子。但我自认为“过滤泡泡”不能百分百说是坏的,它给你推送的东西都是迎合着你的喜好,是你喜欢的你才会去看,如果你翻到的那些你不感兴趣的你根本就不会去点开,所以他们给你“过滤”这些也减少了不喜欢的信息推送给你手机…。但我们也要去选择性的去逃离一下那个“舒适圈”不要让”过滤泡泡”一直过滤你的生活。

  6. 思考过滤泡泡
    过滤泡泡,其实是RSS工具推进网络用户个性化革命的进程中的副作用。以各大搜索引擎为例,RSS工具是能以最快的效率迅速集成用户社群并达到最高收益的最好选择,而这样与利益和方便相比较的“小毛病”似乎微乎其微可以忽略不计——直到这样的缺陷累积放大到我们不得不重视的地步。
    现在是一个个性化的时代,每个人都有着强烈的权利意识觉醒以及个性保护意识,追求平等已经渐渐成为主流的口号。但是令人恐慌的是,我们所追求的平等在我们每天的生活中甚至是每一次的搜索、打字之中,不知觉间被隔离被剥夺。这是令人害怕的反思,仿佛我们转眼之间变成穹顶之下生活着的人,“过滤泡泡”先是过滤掉我们的信息,然后是分化,最后我们得到的不是由我们决定的,而是由躲在过滤泡泡背后的商家,甚至政府。
    过滤泡泡通过根据人们的资料,将按照搜索结果分成不同的社群。当你听见你在每一次进行搜索的时候,都会被电脑进行标签分类,开动脑洞想一想,在数据流之中有一双眼睛紧盯着你,对你的每一项隐私进行评判和标签,将你不断分类直到分到你最适合的社群之中——最终,人们被分成了“我们”和“他们”,而人类还被蒙在鼓里,殊不知我们这个族群正在面临分裂和阶级化。
    但是过滤泡泡的产生难道真的是机器自己本身“觉醒了意识”吗?当然不是,过滤泡泡只是人类利用一种网络信息归纳工具过度后形成的隐患,就像是滥用抗生素会对机体造成损害那样,机器其实是人类缺陷的一种放大镜。当人类习惯了利用心理暗示获取商业利益之时,反映在这样的工具上,利用这种工具的人总有一天也会被这种机器的力量吞噬。
    过滤泡泡也会限制我们自己。就像上述提到的心理暗示那样,过滤泡泡不仅是限制我们所获取到的信息,它也会让我们自己产生心理暗示——我们本该是这样的人。互联网本应该是扩宽世界的工具,但是却让我们变得越来越狭隘,这无疑是我们应该去反思的问题。
    最后,我们当然在过滤泡泡之中。至于如何去解决,这一点超过了我的知识范围。但是能够意识到已经是很进步的一步了。毕竟意识是做出行动的第一步,寄希望于未来叭!

  7. “信息过滤泡泡\filter bubble”是个很形象的词,它指在算法推荐下,人们在互联网上得到信息时已经依照偏好进行了过滤。且由于人是被动得到这些信息而非主动筛选,以致信息的片面性和因人而异性。

    我觉得我们是处于“信息过滤泡泡”中的。其中一个鲜明的例子就是老师课堂上讲到的“群体极化”。个人参与进群体,群体中个人的信息过滤泡泡内,大都是“群体盲思”后得到的信息,旗帜鲜明,异己性质的信息少之又少,甚至会排斥、群起而攻之。比如idol后援会的刷帖、签到,都无时无刻不再对人进行洗脑,idol光环愈发明显,而粉丝的“泡泡”中也充斥着对idol的夸赞信息。另一个能证明处于信息过滤泡泡中的现象是TED演讲中Pariser提及的,“贾斯丁比伯”等明星关注度高,“homeless”等关注度低,在“泡泡”作用下,高者更高,低者更低,导致我们只能从纷繁的娱乐、花边新闻中觅取时事新闻,且时事新闻生命力不长,也令人遗憾。(李胜利的新闻持续了好久了仍在不断发酵,巴黎圣母院失火一事的热度已经渐渐褪去。)

  8. 我认为“信息过滤泡泡”就是现在的推荐算法,通过用户的历史浏览记录、优先点击、页面停留时长等基本因素来套入设定的数学算法(相近或者相离),基于内容、基于协同过滤和关联规则的原则进行筛选,也就是所谓的用户兴趣。其理论依据主要来自于信息检索和信息过滤,主要是从两个方法来描述基于内容的推荐方法:启发式的方法和基于模型的方法。启发式的方法就是用户来自定义定义相关的计算公式(然后进行相关推荐),而对于模型的方法就是根据用户的历史大数据。
    我认为我们很明显就身处这种泡泡中。从几年前的淘宝推荐,到前年微博用户大规模反对微博擅自更改首页微博的时间线,再到现在人人几乎都在开推荐算法的玩笑——“今天上午我妈给我发微信说亲戚家生小孩了,下午淘宝就给我推荐了奶粉。”——显而易见这是个恐怖笑话。在这个TED里,Eli也提出几种细思恐极的说法。首先,这个泡泡是隐形的,我们看不见它摸不到它,但它又确确实实存在着且在现在这个互联网社会上几乎无所不在。这就意味着它甚至可以为所欲为,而我们不能决定也无从下手。其次,我们看不到被这个泡泡过滤掉的信息,我们只能知道我们可以看到什么而不知道我们本该看到却看不到的东西。我们在互联网上所接触的世界被它牢牢地把控着,它仿佛是一个监护人,它要求我们看什么我们就要看什么,它觉得我们不能看什么就不能看什么。最令人不寒而栗地是它可以这么强大、可以掌控我们的虚拟世界、可以做一名强制监护人而我们不能耐它任何,它,却只是一个算法,一个被人用手指敲击键盘写出来的计算机代码,毫不起眼却又受制于它。之前我曾经很苦恼地跟朋友聊起过这些事。我觉得现在的互联网跟以前不一样了。最初大家进入互联网是为什么?是为了多元且多彩的世界,也许我喜欢盆栽但我也可以看到怎么培育出漫山遍野的花海,而不是现在打开微博是盆栽博主的热门视频,打开淘宝是各种关于盆栽相关的工具,甚至是有盆栽图案的衣服鞋子包。它变得无趣了。这是一场网络欺骗,从最初的人工审核到现在的算法,且这个算法没有职业道德可讲。
    最后像Eli一样,我也希望在这个泡泡下,我们可以有更多的选择的权利,这关乎公共生活和我们自身的公民责任感,我们需要透明化,我们也需要管理权限。互联网就是一张将人们联系在一起的网,也是一个让所有人可以畅游的无限世界,我们永远渴望新想法和新面孔,而不是被关在透明泡泡里的被孤立的网民。

  9. 我认为,“信息过滤泡泡”是相对于生活在互联中的我们的一种信息摄取屏障。过滤泡泡关注的便是每一个用户喜欢的,偏好的事物,它会有选择性的去过滤互联网中的信息选择用户感兴趣的再去推送,每一个人都会拥有其个性化定制版的互联网信息摄取界面。
    其实,我们每一个人都存在于这种“泡泡”中,在现在的互联网社会中不论我们使用何种搜索引擎,我的偏好和经常搜索的内容都会被计算、重组、筛选然后推送给我们,这种“过滤泡泡”不仅存在于搜索引擎中,也体现在APP的应用中。一些APP软件会根据用户经常点击的,和日常点赞关注的来推送信息。这样一来,很明显就会有横向与纵向的两个弊端:我们获取信息的层面同化和信息拓展不足。横向方面,比如说:我使用B站的大部分时间都用来看古风视频、汉服种草和吃播,所以我B站主页推荐几乎全部都是有关于这些的,这就导致了我信息获取横向层面的同化。纵向来看,我每天都在互联网里重复的刷新着同质层面的信息,我的信息拓展自然是不足的。
    “泡泡”的弊端明显,也不证明它优点全无,但是相对来看个人感觉“信息过滤泡泡”的弊端大于优点,它已经自我形成了比较坚硬的屏障,就像TED里所说的那样:我们不能决定什么信息可以通过这个泡泡,换个说法,就是这层屏障已经筛选了除我的兴趣以外的其它信息的进入。这个屏障使我每天都获取的是我自己喜欢的、这个屏障想让我获取的信息,使它的每一个用户都生活在自己的感兴趣的领域中,其实是对人的一种束缚。
    仔细想想,这个被人类开发出来的算法程序,时刻监视着你的生活,知道你的一切喜好和在互联网上的任何动态,还会根据你的喜好推荐东西来讨你欢心,其实还是有点恐怖的。在我们获取信息被过滤的现状下,我们所希望的便是拓展我们应该获取的信息的方面,拥有自己本该拥有的获取信息的权利,不被束缚地去了解更真实更多方面的世界。

  10. 我们每天在互联网上浏览大量信息,而互联网展示给我们的信息是我们喜欢的而非应当看的(此处个人观点仅代表信息的不全面类比于膳食不平衡)。而这样的过滤器却并不是我们自己定义的,我们甚至无法意识到自己在过滤器中,又不能知道过滤器以外的世界。尽管有些我们不感兴趣的话题即使被推荐我们也不会浏览 ,但仍然让人反思这种信息过滤泡泡是否真的符合互联网建立之初开放自由民主的初衷,他们用算法精心调整过的信息是否会让我们沉浸在自己的偏好之中,信息泡泡带来了什么问题?在我个人看来,他限制了我们获取信息的范围,让视野变的局限在喜欢和擅长领域浏览的越来越多,而未知的范围仍旧空白,而这样的知识结构也限制了我们的创造力,创造力的基础知识组合单一,我们在这样一种高相关度的世界里,知识结构相对单一,我们塑造媒体更人性化的同时,媒体也在反过来塑造我们。而其中最引人思考的可能就是互联网如何过滤出这样一个世界,这显然是我们用隐私换来的“服务”,是个人隐私的泄漏才使得互联网能为我们构造出这样一个过滤好的世界,而大多数人往往不知道自己的隐私被泄露,很多人同样也想不到自己在安乐窝一样的网络中生存其实是大量数据运行的结果。
    互联网给每个人挖了一个洞穴,而我们以为只能看到的唯一一面墙壁就是整个世界。我们的一切 互联网都在背后看的清清楚楚而不自知。媒体让每一个人都会有自己的“地洞”,每个人的洞穴都有不同。优化了每个人的界面同时给人们无形过滤泡泡,而如果想要更好的看着世界恐怕只能是扩大自己的泡泡,长去别的泡泡里看一看。

  11. 我们每天在互联网上浏览大量信息,而互联网展示给我们的信息是我们喜欢的而非应当看的(此处个人观点仅代表信息的不全面类比于膳食不平衡)。而这样的过滤器却并不是我们自己定义的,我们甚至无法意识到自己在过滤器中,又不能知道过滤器以外的世界。尽管有些我们不感兴趣的话题即使被推荐我们也不会浏览 ,但仍然让人反思这种信息过滤泡泡是否真的符合互联网建立之初开放自由民主的初衷,他们用算法精心调整过的信息是否会让我们沉浸在自己的偏好之中,信息泡泡带来了什么问题?在我个人看来,他限制了我们获取信息的范围,让视野变的局限在喜欢和擅长领域浏览的越来越多,而未知的范围仍旧空白,而这样的知识结构也限制了我们的创造力,创造力的基础知识组合单一,我们在这样一种高相关度的世界里,知识结构相对单一,我们塑造媒体更人性化的同时,媒体也在反过来塑造我们。而其中最引人思考的可能就是互联网如何过滤出这样一个世界,这显然是我们用隐私换来的“服务”,是个人隐私的泄漏才使得互联网能为我们构造出这样一个过滤好的世界,而大多数人往往不知道自己的隐私被泄露,很多人同样也想不到自己在安乐窝一样的网络中生存其实是大量数据运行的结果。
    互联网给每个人挖了一个洞穴,而我们以为只能看到的唯一一面墙壁就是整个世界。我们的一切 互联网都在背后看的清清楚楚而不自知。媒体让每一个人都会有自己的“地洞”,每个人的洞穴都有不同。优化了每个人的界面同时给人们无形过滤泡泡,而如果想要更好的看着世界恐怕只能是扩大自己的泡泡,常去别的泡泡里看一看。

  12. 现在的“信息过滤泡泡”就是网络通过计算机算法来对个人的上网数据等的信息进行分析,从而提供个性化信息,形成了对互联网万千信息的屏障,看似营造了一个人在互联网的独立空间。
    现在泡泡无处不在,从搜索引擎、视频app、社交app、购物app处处都是这种信息流动方式。我们被裹挟在一定的圈子里,就像是被圈养了一样,给你提供固定的食物,没有了选择和自由空间。我们被包围了。
    从积极的一面来看,信息泡泡可以提供便利,使一个人的兴趣深度发掘,有点直接入深,不用面里寻点。但思辨的的来看,这又使人的眼界和思维固化。难以找到信息之间的联系,思维能力退化。
    从批判的角度来看,这是一种新的阶级分化与固化的手段。信息社会,信息成为资本。互联网本来就是有着对抗原本私有体制的精神而成长,这样的信息过滤岂不是违背了互联网的初衷?信息本来就是从无到有的积累和拓展,这样的过滤系统却固化了现有的状况,不是提供一个平等、包容的、杂糅的获取平台。人打破阶级的局限,在互联网上又增加了一道坎。
    还有就是信息审核者随媒介的变化而变化。就像视频所说“如果公民没有良好的信息沟通,就不可能有有效的民主”所以报刊年代新闻职业道德应运而生。互联网时代变成了“算法”去操守职业道德。但是这样的过滤方式就仿佛回到了信息封锁的时代,我们被蒙蔽了。抛开隐私安全,互联网的开放性何在?

  13. 信息过滤泡泡指的是对世界上繁多的各种信息进行筛选,形成一个“私人定制”的信息圈。比如,报纸就是信息过滤泡泡,因为报社编辑帮助广大读者筛选出了他们认为重要的、符合读者口味的信息。而在当今互联网时代,信息过滤泡泡已经从人工操作转变为计算机算法操作,实现了自动化和真正的“私人定制”,以致于可能呈现给每个人的信息都是不同的。在信息过滤泡泡的机制下,搜索引擎、门户网站等等依靠大数据和算法分析,统计人们的偏好,并且将人们可能喜欢的信息呈递上来。
    我们必然身处这种信息过滤泡泡之中。首先,信息过滤机制在某种程度上是很有帮助的。因为世界上无时无刻不产生信息,而无数的信息我们根本关注、处理不过来,所以必须要依靠信息过滤机制为我们减少一些工作量。我们每天用的微博、搜索引擎等等,都会为我们省去一些我们不关注的话题,而正因为我们不怎么关注,所以我们并没有注意到这些话题被过滤掉了。
    信息过滤机制限制了我们所了解到的信息,限制了我们的视野,影响我们对大众观点的判断,使得我们以为我们所身处的网络世界是真实的、全面的;但实际上,我们只是活在一个信息过滤泡泡里,你看见的或许只是你想看见的,抑或是设计算法的人想让你看见的。量身定制的信息过滤泡泡其实在某种程度上算是人们的舒适区。除此之外,信息过滤机制可能会造成信息权威,就比如说,用算法屏蔽一些关键词或是网站以达成信息控制的目的。我们现在常说的“和谐”、“墙”就是利用算法形成的信息过滤机制。大众点评、淘宝等等平台上的智能推荐也是通过“监视”人们的浏览记录和购买记录,形成用户专属的信息过滤泡泡。

  14. 新媒体数值化呈现的特征给用户带来了个性化定制服务,像年末收到的支付宝年度账单,网易云音乐的年度盘点等等,精美的H5界面,私人定制给我们带来诸多感动,一定程度上也给生活带来了诸多便利。这背后其实是计算机算法,大数据在起着作用。但这一技术也存在着很多问题。
    所谓过滤气泡,应该就是你自己所处的网络世界——一个越来越狭窄的网络世界。网络给我们显示出它认为我们想要看到的信息,把它觉得不重要的信息过滤掉,而我们得到的信息未必是我们真正需要的信息,甚至我们也看不到那些被过滤器删掉的信息。
    其实我们都处在一个个网络社群中,而一个个网络社群都是由于某种共同点而聚在一起的,它把我们都孤立在个性化的网络中。而我们恰恰需要不同的想法,从不同的角度看问题,需要接触不同的面孔。所谓个性化数据、计算机算法给我们身上贴的标签的真实性值得思考。比如,前天在淘宝上看了一个家具,第二天主页上基本全都是这类家具,而这些都不是我真正需要的。
    很多搜集来的数据常常是不完整的,或者只是代表某一阶层。比如美国总统竞选,投票期间大数据表明代表左派的希拉里的票数多于右派的特朗普,但最后的结果却不是这样。事实上,算法中的数据大多来源于美国精英阶层,它忽视了“沉默的大多数”。这其中也体现了长尾理论,庞大的基数也使它有巨大的“利润”空间。
    互联网把万事万物联系在一起,在广播时代,人作为审核者,控制着信息的流通,把握着主流文化主流价值观。如今,审核任务近乎完全交给了计算机算法,于是,新的问题需要我们解决:我们需要新的信息审核者来将道德责任输入它们缩写的代码中,愿望反乌托邦式的剧情越来越少,不断思考如何利用技术手段而不是技术管理人。

  15. 关于「个性化阅读」
    我个人认为我们是身处于「信息过滤泡泡」中的。我们关注着自己喜欢的博主与公众号,每天在个大新闻网页或 app 上打开我们感兴趣的链接翻看我们喜欢的内容,这些平台或者媒体就会通过我们点击的内容来进行分析并开始给我们推荐大量相似并且认为我们会喜欢的内容,信息过滤泡泡是一种所有信息传播平台都有的现象。

    这种现象无可厚非,毕竟众口难调,想让所有的推送都拥有客观的点击量并不简单,信息过滤泡泡就成为了上佳选择。但是这是否是最佳选择,我个人认为还有待商榷。

    从「提升社会公知」和「保持信息透明」这两个角度看,信息过滤泡泡并不是一个好东西,当我们在关注我们所喜爱的小圈子时,信息的激增会让我们对该领域的探索从学习转为娱乐,审美陷入停滞,自身仅剩的品味也开始挟裹自身,导致我们对其他领域或发生的事件兴致全无,甚至丧失常识,这对于社会公知和社会凝聚力的提升是非常致命的打击,因为当我们对社会每一方面关注的越来越少时,我们对社会发生改变的反应也会越来越迟钝,这个社会就有可能在我们没有关注的时候反过来伤害我们。

    而且信息过滤,是数据和人工智能帮用户完成的,用户往往并没有主动的去选择自己想看的,而是被迫的接收某些平台希望用户看到的,用户筛选信息的能力逐渐退化,信息类型的分布严重不均衡,每个人看到的信息不对等,差异逐渐拉大。从这个角度上讲,信息过滤泡泡是一种束缚。

    我个人认为,我们应该在信息上有所突破并且主动筛选,培养对诸多方面的兴趣并尽可能多的关注这个社会,接收多方面的有效信息与有益信息,从片面的看待转为对世界多层次的深入了解,才是有益的。毕竟,一个社会对公知的重视程度,直接决定了其文明程度。

  16. 随着互联网的普及,人们有了新的认知世界的方式。当搜索引擎成为人们检索知识的工具,当社交网络生为了日常生活的必要环节,我们不禁思索透过网络看到的世界是它真实的样子吗?记得在这一个演讲视频中有这样一个有趣的现象,Prasier邀请两位朋友分别检索“埃及”,但出现的结果却截然不同。很显然,“信息过滤泡泡”已经成为影响人们感知获取的潜在重要影响因素。所谓“信息过滤泡泡”,是一种标签化的算法设计,通过大数据的收集处理分析,为用户提供一个“近似”用户思维的检索结果。这样一种设定在一定程度上是用户思维的体现,提高网络效率,但也严重限制了信息资源空间,影响人们的观点与思考。我认为它最大的弊端在于人们的“全然不知”,由于过分信任、依赖于网络,获取到的信息带有局限性、片面性,所以说“信息过滤泡泡”严重影响到了人们对于客观世界的认知与感受。但凡事我还是要辩证地去看待,囿于现状,我们还是要多角度地思考辨别,在得出主观论断之前尽量保证以一个完整的视角去获取和理解信息。

  17. TED中伊莱·帕里泽,指出我们正处于“信息过滤泡泡”中。

    我同意这种观点。以下进行分析:

    利:

    对于用户:
    – 基于大数据、算法进行精准投放,迎合用户兴趣及口味
    – 集合数据,缩短用户搜索过滤时间
    – 加深单一方面知识深度

    对于生产者:
    – 定位用户群,利于广告投放/商品销售
    – 精准引流,吸引流量/粉丝
    – 基于浏览历史算法,减少分类成本

    弊:
    对于用户:
    – 内容同质化,接受信息重复
    – 信息面狭窄化,无法接收到多元信息,审美固化
    – 个人信息被采集,隐私被侵犯

    对于生产者:
    – 生产内容趋于固定
    – 创新成本提高

    个人观点:
    “信息过滤泡泡”有利有弊,但也是目前最适合网络及资本市场运作的一种模式。

    对于用户来说,淹没在自己不感兴趣的“信息海洋”中,显然比“固定的精准化”更加可怕。对于生产者来说,“泡泡”提供了有效过滤数量庞大的网络用户,快速吸引高价值流量的可行方法。“泡泡”加速了用户与生产者的对接,其积极的一面作用巨大。

    作为一个“智慧”的网上冲浪者,为了面对“泡泡”的弊端,需要有意识地进行多元浏览,拓宽自己的知识面。毕竟,“信息过滤泡泡”只是一种“软禁”,并没有任何东西强制阻止用户搜索到他们有意想了解的东西。谁能够率先把握互联网的这种时代特征(而不是一味地思考和怀疑),提高自己搜集信息的能力,谁就能够在这场博弈中拔得头筹。

发表回复

您的电子邮箱地址不会被公开。

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据

%d 博主赞过: