查看原文
其他

10篇经典论文,帮你搞定“算法”的20个概念 | 网传10

助你上岸的 爱传播新传考研 2023-03-28

关于算法,你知道多少概念呢?大家可能对于算法推荐、算法偏见、算法歧视、算法黑箱、信息茧房、回音室这些概念比较熟悉,那么,你了解算法工程师、计算宣传、算法驯化、算法反恐、混合智能、工具理性和价值理性吗?


今天,我们就通过10篇发表于新闻传播四大期刊的经典论文,结合案例,来积累20个关于“算法”的重要概念。


关于“算法”的专题,看这一篇文章就够了!



案例


首先,先来看几个案例开开胃~


1. 算法传播操控国际议程设置



Facebook于2017年10月在塞尔维亚、玻利维亚、柬埔寨等六个国家进行算法改革测试,降低了六个国家的媒体议程设置能力和影响力,同时这些算法测试因为遮蔽了一些民主真相而饱受抨击。一位塞尔维亚记者在《纽约时报》上公开指责Facebook把脆弱的民主国家当作自己产品的实验室。


2. 算法传播威胁全球秩序稳定



在《中华人民共和国香港特别行政区维护国家安全法》颁布前的几个月里,乱港分子在中国香港制造暴乱,中国网友发起“网络出征”,揭露其真面目。但Facebook、Twitter和Youtube等西方社交媒体以“虚假新闻”“有官方背景”和“破坏香港示威的‘合理性’”为由,通过算法封禁了数千个发布客观理性声音的中国账户。《人民日报》等主流媒体发表一系列文章,指责西方媒体的双重标准。


3.算法偏见



(1)2016年一场AI网络选美大赛中,最终获奖者大部分为白人;


(2)谷歌曾给黑人程序员的自拍照打上了“大猩猩”标签;


(3)2016年,Facebook“偏见门”事件揭露Facebook的趋势话题平台过滤保守派信息,却保留自由派信息;


(4)2018年,YouTube平台通过算法推荐激励发展一种以儿童为目标的亚文化,将充满猥亵和暴力的视频通过算法分发到专门针对儿童的应用程序YouTube Kids上。


4.算法歧视



有研究发现,在美国劳动市场环境下,如果应聘者的名字听起来不像英美人常用的名字,则有可能成为算法歧视的对象。与白人相比,美国黑人利用谷歌搜索时,搜索结果会出现“你是否有被捕记录”的询问。


5.算法操控



在2016年的美国总统大选中,剑桥分析公司(Cambridge Analytics)利用Facebook的用户信息帮助特朗普团队量身定制并精准投放广告,为其最终当选做出了重要贡献。投票给哪位总统候选人看似由选民自主选择,但算法早已通过其“无微不至”的力量影响了选民的倾向,而这种影响常常是潜移默化的,选民甚至毫无觉察。倘若信息可被强力操控,那么追求事实的真相自然变得愈发困难。


6.用户画像



(1)要实现新闻的个性化推送,首先就必须广泛挖掘用户的浏览记录,对用户的喜好进行分析总结,绘制出用户画像,然后计算出每条新闻与用户画像的相似度,将相似度最高的新闻推荐给用户,从而达到个性化推送的效果。


(2)电商平台常常根据用户以往的购买记录,或相似用户的购买行为,或商品之间的关联,来精准推送用户所需的商品信息。



翠花,上干货!


论文 NO.1


《“信息茧房”在西方:似是而非的概念与算法的“破茧”求解》

陈昌凤,仇筠茜.新闻大学2020(01)


一、算



算法是一组基于某种指定计算将输入数据转换为所需输出的编码过程。算法提供了将数据转换为简单或复杂产品的方法,就像食谱一样。算法推荐系统一经兴起便被广泛应用于新闻传播领域,成为向读者提供个性化服务的技术基础。


二、信息茧房



“信息茧房”是桑斯坦教授在其2006年出版的著作《信息乌托邦》中提出的一个比喻,之后又在其系列论著中进行了阐述和拓展。在《信息乌托邦》中提出的“信息茧房”的内涵是:我们(信息传播中用户)只关注自己选择的内容、使自己感到安慰和愉悦的传播世界,如同置身于蚕茧般作茧自缚(桑斯坦,2008)。


桑斯坦认为麻省理工学院的媒介与科技专家尼古拉斯·尼葛洛庞帝的“我的日报”(the Daily Me)就是“信息茧房”效应的预言:这是一份完全个人化的报纸,我们每个人都可以在其中挑选我们喜欢的主题和看法(桑斯坦,2008)。


三、回音室



桑斯坦等认为,“我的日报”带来了“信息茧房”效应,产生了只局限在与自己相同意见的“回音室”。信息过滤机制让我们只看到我们想看到的东西、只听到自己认同的观点,只跟观念相同的人交朋友,那些观点不断重复之后不断加深,最终变成一个只能听到自己声音的“密室”,即信息的回音室。


信息茧房与回音室的分辨:

桑斯坦常常交替使用“信息茧房”和“回音室”。从这两个比喻的形态来说,“信息茧房”更偏向个体接受同质化信息带来的认知影响,“回音室”(还有“过滤信息泡”概念)则偏向于个体在观点方面的认同,指人们在网络辩论中有选择地避免对立的争论,只听到自己认同的观点。


信息茧房和回音室难以形成:

西方学界尚无有力研究证实“信息茧房”的存在。事实上,造成“信息茧房”的单纯信息环境很难在现实中出现。Web2.0技术提供了与志同道合的人讨论问题的机会,也增加了与那些持不同观点的人讨论问题的可能性,很难形成信息茧房和回音室。



论文 NO.2 


《算法传播的信息地缘政治与全球风险治理》

罗昕,张梦.现代传播2020(07)


四、算法传播



1.算法传播


人工智能时代,算法传播成为国际信息传播的新范式。在地缘政治与技术发展对全球未来构成风险的环境下,算法技术成为国际政治中的“软实力”,算法传播的“可见性”与“不可见性”生产逻辑构建了日益复杂的信息地缘政治格局。算法传播在世界数字鸿沟、国际议程设置和全球秩序稳定等方面带来潜在风险,加剧了冲突性的信息地缘政治,使人类走向一个机遇、变革与挑战共存的不平等世界。算法传播全球风险的治理,要发挥国家政府、联合国、技术社群、区域组织等多元行为体的联合力量。


2.算法传播带来信息地缘政治的潜在风险:


(1)算法传播加剧世界数字鸿沟;

(2)算法传播操控国际议程设置;

(3)算法传播威胁全球秩序稳定。


3.信息地缘政治风险下算法传播的全球协同治理:


(1)强化以国家政府、国际组织为主导的多边治理;

(2)坚持以多利益攸关方为基础的技术治理;

(3)发展以区域为主体的国际合作治理。


五、计算宣传



“计算宣传(Computational Propaganda)或“社交机器人”(Social Bots),是指以在社交媒体网络上故意散布误导信息为目的,使用算法、自动化和大数据分析等方式操纵公众舆论,通过“可见性”与“不可见性”实现虚假信息的放大和真实信息的过滤。虽然网络外交和计算宣传已成为全球普遍现象,但算法技术落后的国家抵御能力较弱,更容易在不稳定的全球秩序中受到伤害。



论文 NO.3


《局内的外人:新闻传播领域算法工程师的伦理责任考察》

严三九,袁帆.现代传播2019(09)


六、算法工程师



1.  算法工程师:算法的关键责任人


我们普遍认为平台和产品经理对算法提出了要求,因此算法的价值走向取决于平台所需。实际上,由于“专业鸿沟”的存在,一开始就已经划分出有能力解读算法的人和无能力解读算法的人。有能力的人即算法工程师,他们有着不同的价值观念,在实现目标功能的过程中,会选择不同的算法来解决问题。也正是在这个过程中,算法工程师自身的价值偏向会有意识、无意识地被输入到算法之中。这些算法偏见主要来源于两点:一是人的偏见,二是训练数据中固有偏见。


算法工程师才是直接有能力使用算法、调整算法、预设算法未来走向的人。因此,面对算法在新闻传播领域中引发的诸多伦理问题,算法工程师自然不能置身于事外,需要承担起自己应尽的义务与责任。这些义务与责任包括但不仅限于:了解自身所设计算法引发的伦理问题,增强对可能产生问题的敏感性,积极主动地参与到算法优化任务之中等。


2. 算法工程师:局内的外人


研究发现,作为引领算法价值走向的关键人物,算法工程师并没有对算法在新闻传播领域引发的伦理问题有太多深入了解。并且在面对这些问题的时候,没有表现出非常高的积极性进行算法伦理问题改进。他们更多的是不认为现阶段的算法引发了严重的伦理道德问题,这与当下各界对算法的激烈批判氛围不相符。可以说,虽然算法工程师已经进入到了新闻传播领域之中,成为促动新闻传媒业改革的关键人物,但是却未能进行准确的自我定位,职业角色上仍游离于新闻传播领域。因此,可以将其称为外“局内的外人”。


3.提升算法工程师伦理责任意识的可行路径


(1)开展行业间、部门间对话与交流,提升算法工程师对算法伦理问题的了解;

(1) 明确新闻传播领域算法伦理原则、建立新闻传播领域算法工程师职业道德规范;

(2) 通过入职伦理培训加强算法工程师责任意识。



论文 NO.4


《智能新闻信息分发中的算法偏见与伦理规制》

林爱珺,刘运红.新闻大学2020(01)


七、算法推荐



1.算法推荐


是指在信息分发过程中,算法程序根据用户的个人数据与阅读行为建立“数字档案”,根据用户的兴趣爱好推送信息,以期满足用户的个性化需求。


2.算法推荐是否会导致“信息茧房”或者信息窄化,在学术界仍然存在争议


有学者认为算法越来越多元,综合运用多种算法可以避免单一算法的刻板印象,算法的不断优化和其自身纠错能力都利于打破“茧房”效应。还有学者认为“信息茧房”的形成取决于算法推荐机制、社交关系和个人心理等一系列条件。在个人层面,多样的阅读动机使我们不仅仅局限于自己认同的信息领域;在社会层面,丰富的社交关系不会让人们陷入狭窄的视野中;技术层面,不同类型、不同原理的算法甚至可能促进信息的多样性。


3.目前,运用较多的是基于内容的推荐算法


这种算法通过内容和用户特征的精准匹配来推送信息。由于用户具有选择性接触心理,倾向于对与自己偏好相符的信息进行点赞、转发、收藏或关注,因而基于内容的推荐算法正是利用用户的这种心理,根据用户偏好持续推送相关信息,让用户在算法的诱导下不断地相信推荐、顺从内心的意愿选择信息。从这个角度而言,用户大量获取千篇一律的信息,容易身陷“信息茧房”。而一旦“信息茧房”产生,其带来的最大后果是窄化公众的信息接触面,将公众的视野禁锢在有限的信息领域,让公众失去了解外界的机会,这对公众知情权带来了困扰。


八、算法偏见



1.算法偏见


是算法技术应用于信息生产与分发过程中,由于算法设计、输入数据、技术局限等因素造成的算法决策不客观、不公正的现象。算法偏见不仅带来新闻的专业性、客观性弱化,还对用户的信息权利构成威胁,导致作为社会环境“瞭望者”的媒体日益偏离公众的期望。


尽管算法程序是算法运行的主要执行者,但算法程序的运行效果往往取决于算法设计。选取何种目标变量(用户性别、点击频度、页面停留时长等),以及如何设定分类标签与权重,都会影响信息分发的结果。而算法设计往往隐含技术开发人员的价值取向,在理解问题、选取相关指标、设置权重、评估算法等算法设计过程中,技术开发人员的态度和价值观念都极易嵌入其中,造成算法推荐客观性的弱化。


2.算法偏见的生成逻辑


(1)基于“流量至上”的算法设计;

(2)基于用户画像的个性化推荐。


3.算法偏见的伦理设计


(1)自主性原则;

(2)公正性原则;

(3)最优化原则;

(4)透明性原则。



论文 NO.5


《算法伤害和解释权》

邵国松,黄琪.国际新闻界2019(12)


九、算法伤害



1.算法伤害


在社会的决策体系与话语体系中,算法占据主导地位并非新近才出现,但置身当下的人工智能时代,受算法影响的相对人对此并没有清晰的认识。即便算法给相对人的权益造成损害,他们也很可能没有意识到何种权益被损害。这与算法决策的不公开透明息息相关。


算法伤害主要体现在四个层面:用户画像、算法黑箱、算法歧视、算法操纵。这四个方面基本覆盖了算法对相对人的伤害层次。


面对算法的巨大能量以及应对机制的匮乏,解释权被认为是一种规制算法伤害的有效路径。2018年5月,欧盟的《数据保护通例》(General Data Protection Regulation,以下简称GDPR)开始正式实施,该条例所包含的“解释权”(Right to an Explanation)被认为是一种打开黑箱、纠正算法、提升算法伤害可归责性的补救措施。然而,对于解释权是否存在、是否可以有效解决算法伤害等问题,学术界仍存诸多疑问。笔者认为,本文通过分析欧盟地区的法律,证明解释权在当前的法律体系中难以证成,也非解决算法伤害的理想机制。


2.减少算法伤害的新路径——解释权之外


如何规制算法,阻止(至少减轻)算法决策的错误、偏见、歧视、不公对个体产生的重大影响已成为学界讨论的热门话题。解释权看似为对抗算法决策提供了有力武器,但更有可能是虚幻的景象。可在GDPR本身寻求解释权之外的解决路径:


(1)诸多数据主体权之适用

GDPR赋予了数据主体诸多权利,根据其性质大致可分为两类:第一类为通用权利,包括知情权、访问权、更正权等;第二类为消极控制数据使用的权利,包括数据擦除权、数据携带权等。


(2)数据控制者或处理者义务之适用

A.在系统实际进行中时,控制者必须实施适当的技术和组织措施以保护数据主体的权利,例如建立数据保护默认机制、匿名机制与数据最小化机制等;

B.当使用新技术处理数据可能对数据主体的权利产生高风险时,则事先必须进行数据保护影响评估;

C.公共机构、商业组织以及任何处理特殊数据的控制者必须委任数据保护官。


(3)救济和责任体系之适用

GDPR赋予数据主体行政与司法两种具体的救济方式,数据主体可通过向监管机构申诉、向法院起诉的方式,寻求损害救济。


十、用户画像



用户画像指的是为了评估自然人的某些条件而对个人数据进行的自动化处理,特别是为了评估自然人的工作表现、经济状况、健康、个人偏好、兴趣、可靠性、行为方式、位置或行踪而进行的处理。


算法并没有奇幻的“魔力”,没有数据的喂养,算法推送的信息是不可能主动精确匹配到个人的。但用户在享受便利的同时,其信息隐私也在不知不觉中被侵犯。


十一、算法黑箱



算法的运行有赖于复杂的机器学习能力,算法的决策过程具有天然的不透明性,因此算法经常被描述为“黑箱”。算法自动化决策不是根据人类易懂的规则做出的,不仅没有人工干预,而且常常缺少可解读的数学技术。更糟糕的是,算法所做出的决策可能是错误的、带偏见的甚至具有破坏性。


我们对算法施加的权力没有清晰的认识,无法理解算法运行的原理。它们的决策原理隐藏在我们无法轻易理解的代码面纱中。算法根据数据模式不断迭代,这使得我们更难理解和预测。此外,算法大多被追求利益最大化的商业组织所使用,而它们恰恰承受最小化的公开透明义务。因此,通过传统、被动的信息披露机制以便公开观察并生成适当的责任承担机制成为不可能。


十二、算法歧视



算法歧视常见诸于性别、种族、就业、贷款等方面。算法依据风险评估结果或相关分类,来决定是否提供一些机会,或将他人无需承担的成本强加于某客体。


算法歧视之所以普遍存在,是因为算法的目的、设计理念、技术标准等无不渗透着设计者或使用者的主观选择与价值追求,设计者或使用者可能将自身的歧视或偏见嵌入算法决策系统。


并且,数据质量本身也会影响算法决策的结果,因为算法是根据历史数据进行训练而生成的,存在复制不公平/歧视性历史记录的风险。数据的不正确、不完整可能造成算法决策所谓的“带病进出”现象。数据是社会现实的电子化反映,本身也可能带有歧视或不公,如此数据喂养的算法结果自然会烙上歧视的印记。


此外,算法倾向于将通过深度学习得出的结果固化或放大,一旦出现算法歧视,那么该歧视就会长存于算法之中,过去的歧视在未来的算法中还会得到巩固并加强,形成“输入—歧视—输出”的恶性循环。在社会层面,算法歧视会放大用户的弱势(缺陷)效应,导致弱势群体越来越被无情排斥,加剧现存的不公平现象,给整个社会造成无法弥合的裂痕。


十三、算法操控



算法发展至今,无论是在商业机构还是在公共部门,基于模糊的经验或通过旷日持久的调查进行决策是符合时代潮流的(决策的科学性与准确性另当别论)。因此,算法不可避免被引入到决策当中,在某些领域,算法甚至主导了决策。当人类社会绝大部分事务离不开算法决策时,算法权力便产生了。“在一个以代码为符号的社会,权力越来越集中于算法”。算法为商业和公共机构提供了操控人类的机会,同时还刺激人类使自己的生活顺从算法的要求以避免不利决策。借由信息传播技术的强大与便利,人类看似获得了极大的自由,实则不知不觉中“通往被算法奴役的道路”。


十四、算法社会三法则



耶鲁大学法学院巴尔金教授曾提出“算法社会三法则”,即:

(1)算法操作者是客户或终端用户的信息受托人(Information Fiduciaries);

(2)算法操作者负有公众责任(Public Duties);

(3)算法操作者负有不参与算法伤害的公共义务。



论文 NO.6


《算法驯化:个性化推荐平台的自媒体内容生产网络及其运作》

黄淼,黄佩.新闻大学2020(01)


十五、算法驯化



1.驯化理论


驯化理论最初由英国学者 Roger Silverstone 在有关家庭场景中电视媒体使用的研究中提出,此后被大量应用于考察各类数字媒介技术对日常生活、社会文化的影响的研究中。


驯化的过程以消费实践为前提, 而后经历四个环节:占用(appropriation)、客体化(objectification)、纳入(incorporation)和转换(conversion)。

“占用”指的是媒介技术如何被引入某个具体的社会场景;

“客体化”指的是新技术在该场景中被置于何种位置;

“纳入”指的是新技术如何嵌入人类的生活实践;

“转换”指的是消费主体如何向他人展示新技术(Haddon,2007)。


2.平台实践的算法驯化:内容管理者引领的共识


平台内容管理者首先完成了自身的算法驯化,无论是将媒体思维运用到新的技术环境,还是用商业逻辑重塑内容价值的标准,这些从传统内容生产体系中转型而来的媒体人,在实现身份认同的过程中也逐步积累了在新的内容生产网络中掌握主动性话语和行动权力的资源。


之后,内容管理者通过“转译”将组织内其它岗位上的行动者引领到算法规则的驯化作用下,促使其自身、技术管理者、商业管理者达成了这样的共识——将“秘而不宣”的算法规则渗透到身体力行的岗位职责中,平台实践中的职责共识网络由此形成。


3.自媒体创作群体的算法驯化:头部创作者引领的共识


头部创作者的成长得益于算法推荐,流量积累达到一定水平就被平台以多种方式“收编”。被算法规则驯化的头部创作者,以“现身说法”的方式将算法规则“转换”为算法平台的“普惠”“赋能”等机制,转换为中尾部创作者的驯化者。


平台通过榜单和成功案例设定行动目标,头部和部分腰部创作者先作为被设定对象,而后尾部创作者追随这套机制(包括身份标识和采取前述“联盟”环节的行动)的过程就是在关键引领者(头部)的动员下经由强制通过点(算法规则)进入社群共识网络的过程。



论文 NO.7


《“算法反恐”:恐怖主义媒介化与人工智能应对》

李龙,支庭荣.现代传播2018(09)


十六、算法反恐



1.算法反恐


互联网的普及在带来巨大社会便利的同时, 一度助长了恐怖主义的媒介化趋势, 削弱了大众媒体时代世界范围内反恐战线的话语权优势。社交媒体对恐怖主义的某种赋能, 催生了新的恐怖主义组织形态, 威胁世界秩序,影响意识形态领域的安全稳定, 加剧了恐怖主义与反恐怖主义之间对抗的激烈程度。随着人工智能技术在社交平台的深度植入, 更具专业技术色彩的算法被运用于恐怖言论、涉恐图像、极端视频等内容的识别与处理,  以及对恐怖行动的智能预测和反恐宣传的智能推送, 并在国内外实践中取得了一定成效, 正成为反恐新的方向标。


2.作为“反恐”的算法:算法识别技术的社交媒体实践


(1)恐怖言论的侦测过滤;

(2)涉恐图像的甄别与处理;

(3)极端视频的全面筛查。


3.预测和智能推送:未来反恐的“智能之准”


(1) 恐怖行动的智能预测;

(2) 反恐宣传的智能推送。



论文 NO.8


《热点与趋势:技术逻辑导向下的媒介生态变革——2019年新媒体研究述评》

苏涛,彭兰.国际新闻界2020(01)


十七、算法新闻



1.算法新闻


是运用智能算法工具自动生产新闻并实现商业化运营的过程、方法或系统。算法驱动的智能化信息平台已经成为当前社会核心信息的主要传播渠道,换言之,基于算法的媒体正在成为全球民众的主要新闻和信息的提供者;而与之相伴而生的是,传统主流媒体新闻传播渠道、传播范式和机制的变化。


2.2019年算法新闻的实践与批判研究


2019年,国内学者对算法新闻的研究,从算法伦理、透明度、算法给新闻业带来的机遇和挑战等问题,逐渐深入到信息把关、算法的话语争议、算法规制、算法对智能传播实践嵌入等问题。


(1)陈昌凤等(2019)从价值层面讨论了自动化“新闻策展”(news curation)算法蕴含的价值风险,以及在公平性、新闻伦理方面的隐忧。郭小平等(2019)认为,所谓的“算法中立”不过是人们对数据和技术的乌托邦想象。政治内嵌与资本介入,社会结构性偏见的循环,量化计算对有机世界的遮蔽,必将导致算法的内生性偏见。


(2)当基于算法的媒体正在成为广大民众的主要新闻提供者,算法也结构性重构了传统把关理论范式。罗昕等(2019)从把关理论管窥算法新闻,认为算法使得传统视域下把关理论的基本范式面临结构性转型:主体从人工到人工智能,关系从训示到迎合,机制从编辑到算法,内容从整体到碎片。由此也带来一系列的结构性问题:失去主体性的算法把关缺乏导向管理意识;基于用户画像的算法把关产生“过滤气泡”效应;缺乏透明性的算法把关容易操控公共舆论;基于量的积累的算法把关排挤了高质量新闻。


(3)喻国明、杜楠楠(2019)也认为算法时代的信息把关,从某种程度上演变成一种传播权力的无形转换——从人工编辑向智能算法让渡。但他们以已经过四次大的调整的今日头条为例,发现算法推荐并不是一成不变,而是在不断迭代中以“有边界的调适”来增强其社会的适应度与合法性。因此不能得出“算法推荐导致视野变窄”这样简单的因果关系。


(4)彭兰(2019)认为,智能化算法分发主要解决的是人与内容的关联问题。目前,算法主要以个性作为基本关联维度,未来,它所依据的数据维度和分发思路或将不断拓展,除了个性外,用户所处的关系和场景也将是核心的关联维度。卢维林等(2019)从技术哲学层面对算法的间性特征进行了考察,认为算法间性不仅体现在它的非实体性质,更体现在它构成了一种开放、联动并促成发展的智能传播环境。在这种传播环境中,算法沟通了智能机器的个体认知与人的社会认知,并在形式逻辑、价值逻辑与内涵逻辑之间寻求内在统一。


(5)算法作为一种为新闻业带来巨大挑战的颠覆性技术,以及新闻业的“闯入者” (interlopers),它的出现和运用在社会中引发了广泛的争议。多位学者关注到有关算法的争议及其话语建构现象,并围绕争议主角“今日头条”展开了话语分析。白红义(2019)发现,由于算法挑战了场域中既定的规则,因而引发了空间内不同行动主体的讨论、反击甚至是规制。而算法使用者、官方媒体、市场化媒体、普通网民四类行动主体之间的话语呈现出了各自独特的视角,在这种话语冲突的背后实则是对传播权力的争夺,政治逻辑在其中发挥着更为根本的作用。


(6)张志安(2019)则认为,平台媒体、互联网巨头、门户网站主要从绩效正当性、规范正当性构建算法话语的正当性,而党媒和市场化媒体从价值正当性、规制正当性消解算法的权威。同时,市场化媒体在融合转型过程中不断加强技术采纳,呈现出规制正当性与绩效正当性话语交织的特征。因而,算法争议的原因表面上是技术正当和人本理性的冲突,实质上则是意识形态与技术平台围绕传播效果展开争夺,而且政治权力可以在价值层面有效驯化技术或对技术进行矫正,并在话语公开规训的过程中得到强化。



论文 NO.9


《融合生态、价值共创与深度赋能——未来媒体发展的核心逻辑》

严三九.新闻与传播研究2019(06)


十八、混合智能



混合智能是能够以生物智能和机器智能的深度融合和协同工作为目标,通过互联互通机制,建立兼具生物智能体的环境感知、记忆、推理、学习能力和机器智能体的信息融合、搜索、计算能力的新型智能系统。斯坦福大学发布的 《2030 年的人工智能与生活》中,将人机相互补偿和增强的智能协同系统列为未来人工智能发展的重要趋势。


哲学家鲍尔格曼从 “人—技术—世界”这一角度来看待技术,他强调人的主体性和社会的建构性,认为人可以通过经济、政治、文化和社会等时间手段改变和控制技术的可能性。


根据鲍尔格曼的观点,在对未来媒体的研究范式中,媒体既不能概括为对人的绝对统治,也不是之前的一般的物质媒介,而是一个不断地与人类的价值规范进行同构的过程,是一种生态学视野下的有机整体。



论文 NO.10


《媒介内容生产取向性偏差及“合理性”调适——基于工具理性、价值理性的辩证视角》

郝雨,田栋.国际新闻界2019(06)


十九、工具理性



工具理性和价值理性的概念肇始于德国社会学家马克斯·韦伯(Max Weber)在《经济与社会》中的论述。韦伯在其中提出社会行动的“合理性”取向,其与社会行动的非理性取向相对应。韦伯认为社会行动的合理性取向包括“工具理性的(zweckrational)”和“价值理性的(wertrational)”。


工具理性即“决定于对客体在环境中的表现和他人的表现的预期,行动者会把这些预期用作‘条件’或者作为‘手段’,以实现自身的理性追求和特定目标”。


二十、价值理性



1.价值理性


价值理性“决定于对某种包含在特定行为方式中的无条件的内在价值的自觉信仰,无论该价值是伦理的、美学的、宗教的还是其他的什么东西,只追求这种行为本身,而不管其成败与否。”


2.工具理性与价值理性辨析


工具理性的社会行动是基于目的的合理性,而价值理性的社会行动是基于信念和理想的合理性。


3.工具理性与价值理性的抗衡


媒介内容产品逐渐成为技术支持者和内容生产者通过精细化计算后所得的效益最大化的视听产品,媒介内容生产也逐渐沦为提高效率、符合计算标准(所谓的受众需求)的技术性操作手段。学界对此也多有认识,大部分是对其中技术性因素的批评,如怎样优化聚合型平台的算法。然而,若一味按照该种逻辑进行思考,“合理性”发展路径中的人文精神,在媒介内容生产中将逐渐被弱化。而人文精神的核心理念恰恰是媒介内容生产中需要保持的要素,以算法的推荐机制为例,其“很可能向我们提供固定的内容菜单。如果这些菜单确实可以塑造我们的偏好,我们可能会不知不觉地变成他们所想象的漫画形象,这样的形象更容易分类和操控。”(韦斯特,2014/2017:169)


4.媒介内容生产中“合理性”调试的路径


(1)理性认识下的价值引导

在某种程度上,工具合理性行动应该要实现“行动伦理”层面的责任伦理的回归,注重道德层面的责任和规范,而不是一味地追求功利的目的和所谓的便捷。


(2)边界思维下的行为约束

媒介内容生产应该在一定的法律、伦理边界内进行,虽然开放的网络媒介为广大的网络使用者提供了表达自我思想、情绪的平台和自由,但这并不意味着个体能够不顾社会影响、伦理道德肆意生产带有恶俗、低级趣味、虚假等倾向的内容。


(3)市场逻辑下的量化评级

应当有第三方机构就包括程序操作、数据处理等,依据公共性、整体性原则,对原有存在于各媒体内容平台内部的技术运用进行评估。尤其对于自媒体等媒介内容生产者,在量化评级系统中应当呈现出内容构成、用户整体评价以及在传播过程中的信用等记录。



以上就是本次“算法”专题的全部内容了,转发本文至朋友圈保留1小时以上,或者分享至微博并@爱传播新传考研,将截图发送至任一小助手,即可领取本期推文的【word文档+论文包】


风里雨里,爱传播一直在这里陪伴你。


主编:羽生生

编辑:小听


参考文献:

[1]罗昕,张梦.算法传播的信息地缘政治与全球风险治理[J].现代传播(中国传媒大学学报),2020,42(07):68-72.

[2]李龙,支庭荣.“算法反恐”:恐怖主义媒介化与人工智能应对[J].现代传播(中国传媒大学学报),2018,40(09):13-18.

[3]严三九,袁帆.局内的外人:新闻传播领域算法工程师的伦理责任考察[J].现代传播(中国传媒大学学报),2019,41(09):1-5+12.

[4]黄淼,黄佩.算法驯化:个性化推荐平台的自媒体内容生产网络及其运作[J].新闻大学,2020(01):15-28+125.

[5]邵国松,黄琪.算法伤害和解释权[J].国际新闻界,2019,41(12):27-43.

[6]林爱珺,刘运红.智能新闻信息分发中的算法偏见与伦理规制[J].新闻大学,2020(01):29-39+125-126.

[7]严三九.融合生态、价值共创与深度赋能——未来媒体发展的核心逻辑[J].新闻与传播研究,2019,26(06):5-15+126.

[8]郝雨,田栋.媒介内容生产取向性偏差及“合理性”调适——基于工具理性、价值理性的辩证视角[J].国际新闻界,2019,41(06):66-85.

[9]陈昌凤,仇筠茜.“信息茧房”在西方:似是而非的概念与算法的“破茧”求解[J].新闻大学,2020(01):1-14+124.

[10]苏涛,彭兰.热点与趋势:技术逻辑导向下的媒介生态变革——2019年新媒体研究述评[J].国际新闻界,2020,42(01):43-63.


有事没事可找爱传播金牌小助手



耿直卷卷

暖心S妹

奶狗E哥

吃货胖胖

中二早早


网传专栏
七个角度花样分析5G,怎么考都不慌 | 网传09
关于短视频,彭兰这样总结..
三年考了161次,快来把“舆论、舆情”考点一网打尽!
喻国明最新论文考点分析!手把手教你看论文答真题
你的“后真相”模板该更新啦,有观点有案例!
“直播一哥”李佳琦落户上海!这个考点2021年还得爆
常考常新的融媒体,今年有哪些“新”考点?
“沉默的螺旋”热点事件分析,这些“瓜”应该这样吃!
每年都会考的知识点!议程设置全家桶奉上

往期好文👇
中传考研改革拉响,你报考的学校会改吗?(内附救命文史哲重点+论文包)
“评论得分太低怎么办?”万字评论佳句集锦免费送!
TikTok争夺战:你猜谁是赢家?
「张玉环杀人案」改判,除了煽情我们还应该谈点什么?
疫情中的传播反思,学界大佬在线化重点!!
全网苦等顾佳手撕渣男,等了个寂寞?!
一年狂揽 9000 亿,风口上的网络直播能飞起来吗?
川大魔性招生视频火了!你能看出多少传播技巧?

JK少女不雅动作、腾讯老干妈、杭州女子失踪案等| 7月热点分析

无良营销号终于被禁了!带血的10万+还会有吗?
拿什么拯救我的暑期焦虑?上岸的他们有解毒秘籍!
听说上岸要整理30多个专题?热点专题如何整理?
洪水严峻,为什么灾难新闻不能萌化?
偷偷帮你找了竞争对手的复习进度,快来看看!
“杭州女子失踪案”2小时反转2次,官媒这次翻了个大车!
热腾腾的录取通知书出炉啦!快来沾福气!
考研太饿偷外卖被刑拘?真相只有一个……
健康传播成今年最热考点!高分答案都在这,速来!
“外交天团”再添大将!国际传播缘何常考常新?
千万别错过!新传考研“周年考点单”来啦!
女团审美变迁史:从“爱哭才会赢”到“看我乘风破浪”
网红李子柒真的不配进考卷吗?
高考作文最全解析!这些命题考点值得关注
考研er暑假复习【后悔清单】,真羡慕你可以提前看到
是笑话还是公关佳话?腾讯的危机公关解析来啦!
前有罗志祥,后有朱朝阳,时间管理还真是个技术活!
速来!【1月-6月】的热点事件都给你打包好了!
火箭少女解散,中国第一女团,她们做到了吗?
这是今年新闻传播学最重要、最全面的学界热点合辑!
中国式社交暧昧,靠着微信「拍一拍」拯救了!
新传版“乘风破浪的哥哥”强势来袭,快来为你的哥哥打榜啦!
经验学派、批判学派、媒介环境学派 | 一篇搞定传播学理论最难考点
不会看书?不会读论文?不会整理笔记?几剂良药送给你!

蓝皮书专栏
Vlog原来这么考!高分答案都在这啦 | 蓝皮书06
今年新媒体会考啥?这本押题之书给你画考点
媒体融合竟然藏了这么多考点!快来押题宝典抄答案啦
县级融媒体怎么考?看这篇文章就够了
当李佳琦成为考题,高分答案长什么样?
舆情很难懂?送你套用分析逻辑和框架!
短视频考点最全解析!答案+真题一篇搞定!| 蓝皮书 07
即使翻不了墙,这些西方媒体的转型路你也得了解 |  蓝皮书08
“治理”只会用套话?这些高分句子送给你!| 蓝皮书 09
智能媒体这样答,才能得高分!| 蓝皮书10

欢迎加入爱传播考研群

2021年全国考研群 901082685

微博ID:爱传播新传考研   知乎ID:爱传播新传考研

喜马拉雅ID:爱传播考研

投诉通道:aichuanbo2014(请加one哥微信)

点击原文,即可进入微店!

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存