前沿聚焦 | 人工智能带来的新闻生产传播安全风险及治理路径
2023-07-19 17:05
收录于专题:新传播

□ 陶贤都  谭  炯



人工智能在为网络新闻生产和传播提供便利的同时也带来安全风险,体现在网络新闻的采集、生产和传播分发三个层面:包括由智能采集引发的隐私权侵犯、新闻失实风险;由智能生产引发的人文理性缺失、算法偏见滥用的风险;由智能分发引发的舆论操控风险。安全风险的根源在于人机关系失衡,智能技术成为生产惯习;商业主义与专业主义失衡,价值导向发生偏斜。可从三方面着手进行治理,一是改善生产行为:提升新闻生产的透明性和开放性;二是建立平衡的人机关系:树立人机协同理念;三是建立合理的关系结构:重评估与监管,增强智能生产的适应性。



【关键词】人工智能   网络新闻   安全风险   价值理性

人工智能作为一项颠覆式创新技术,不断重塑着网络新闻的发展,提升网络新闻生产效率,但技术带来的安全风险也需引起重视。“人工智能达不到具有碳基生物的感受性之上的丰富和复杂的情感,它却具有毁灭人的力量”[1],广泛应用的人工智能技术有时会偏离人们预设给它的轨道,一系列安全风险引起人们的担忧。目前学术界并未就人工智能影响网络新闻生产和传播安全风险进行深入分析。本文从网络新闻采集、生产和传播分发三个层面出发,分析人工智能对互联网新闻带来的安全风险,从马克斯·韦伯的工具理性和价值理性角度,分析人工智能对网络新闻安全风险影响背后的根源,并提出治理人工智能影响网络新闻安全的路径。

一、人工智能对网络新闻生成与传播安全的影响

“科技在增加生活便利性的同时,也存在着‘伤害倍增’的效果。”[2]传统新闻的安全影响不同于网络新闻,前者大多集中在误导舆论、新闻失实、新闻侵权等方面,这些安全风险主要是由新闻传播活动本身或传播者造成的。而人工智能对网络新闻生产和传播的安全影响,主要是由技术和技术主体造成的,更加隐蔽甚至暗藏反噬风险。近来ChatGPT的横空出世,折射出人工智能生产内容的蓬勃发展,在带给人类惊喜的同时也会引发安全隐患,有识之士呼吁监管机构介入,以防止ChatGPT等生成式人工智能系统对社会产生潜在负面影响。人工智能对网络新闻的安全影响,主要集中在采集、生产和传播三个方面,包括由智能采集引发的隐私权侵犯、新闻失实风险;由智能生产引发的人文理性缺失、算法偏见滥用的风险;由智能分发引发的舆论被操控的风险。

(一)网络新闻采集层面

1.数据依赖:技术特性带来新闻真实危机

传统新闻采集方式主要是记者的深入采访和实地调查,主观性强且采集范围受到限制,若采访对象有意隐瞒事实,或者记者有意偏向某一采访对象就会造成新闻失实。而网络新闻采集高度依赖技术的采集能力和分析能力,依靠算法,人工智能技术赋予网络新闻更多的信息源,通过数据来采集成为网络新闻采集的重要手段,能够在一定程度上克服主观性。“从技术的属性来看,人工智能的关键技术是数据挖掘和自然语言处理技术”,[3]其中数据挖掘可以帮助记者搜集更大范围的信息源,并进行理解和分析,从而有效地避免记者对数据处理的不准确以及材料搜集的低效性。但是数据挖掘技术本身存在限制。其所生产的新闻无非是从数据当中挖掘数据,如果机器挖掘到的是错误数据,或者在数据清洗阶段未完全将“脏数据”转化为“干净数据”,会导致新闻生产在错误数据中无限循环,新闻真实自然无法保证。即便数据完全正确,也并不意味着新闻真实。数据的隐蔽指向具有一定的迷惑性,数据采集所呈现的新闻,只是人们所看到的表层事实,依据数据推理得出结论也不意味着正确。个体真实和整体真实是新闻真实的两个方面,数据背后的真相、因果关系却无法呈现,也就是整体真实无法达到。因此,技术本身的限制性,意味着新闻生产会陷入新闻失实的困境。

2.数据监视:智能采集侵犯用户隐私权

“隐私主要是个人与社会公共生活无关的,而不愿为他人知悉或者受他人干扰的的事项。”[4]如今,人工智能在网络新闻采集方面应用所导致的隐私权侵犯,主要是技术的过度利用和超越边界的行为。以人工智能为依托的网络新闻采集,需要以海量的数据作为分析对象,在大数据技术的基础上进行用户画像分析,获得用户的信息和预测用户的行为,从而模仿人类的方式提供新闻。因此,新闻报道必然要经过数字转译,而人们也生活在泛在感知和技术“无形手”的环境中,用户行为和生活也处于数据监控的视野范围。

机器主要采取深度学习的方式模仿人类的习惯和风格。“深度学习模型使用过程中产生的相关计算数据,包括输出向量、模型参数、模型梯度,可能会泄露训练数据的敏感信息或者模型自身的属性参数。”[5]过度采集用户数据的倾向,也在人工智能运用的过程中出现。目前,人工智能采集用户数据的方式,包括“现场无差别采集、直接在线采集、网上公开数据源和商务采购等方式”。[6]人工智能技术通常是在用户不知情的情况下获取数据,而且许多用户数据是在交互体验中产生的,比传统隐私侵犯更加隐蔽。即便已经有很大一部分用户意识到自身的数据泄露,甚至对隐私泄露问题有所关注,但是仍不得不接受隐私的让渡以获取技术的继续使用,无疑形成一种隐私悖论。

(二)网络新闻生成层面

1.想象消失:智能生产引发人文精神危机

在传统新闻报道中,记者的写作能力和观察能力决定着新闻的质量,记者的价值观和感性精神,也会在稿件中体现出来。网络新闻则更具有商业性,其在人工智能的运用下进一步放大,虽然数据提升了新闻的理性,却大大降低了新闻的温情。如今,新闻生产越来越智能,却越来越没有温度,当所有的新闻源、所有的事件被量化、被智能化,它会使新闻的温度降至“冰点”,“机器生产”甚至会带来“机器人类”,加剧了人文精神的衰落。因为数据本身意味着理性,人工智能在处理数理关系、自然关系、物质关系方面表现出超强的能力,具有超越人类的力量,[7]但是机器无法深刻理解人与人之间复杂的社会关系,也无法获知人类复杂的情感。比如在中国文字当中,双关、隐喻、比拟等语言表达方式,体现了中国语言独有的特色和复杂性,而这些构成了新闻的人文内容和人文精神,是机器无法超越的。

文字激发了人类的想象,构想出现象与道德、社会结构和人类的关系,创造出多元的人文世界与社会文明,而人工智能将想象取而代之。新闻生产需要发挥人性的想象力,构成新闻的人文精神,正因为具有人性的想象力,新闻才有血有肉。在人工智能的影响下,新闻逐渐理性化和智能化,不再具有“人情味”。

2.技术乌托邦:黑箱隐层暗含偏见循环

从本质上而言,人工智能就是算法,算法本身有偏见,这种偏见在算法黑箱中变得更加隐蔽。在传统新闻报道中,记者、编辑都很难克服自身的偏见。人工智能算法出现以后,量化计算、智能生产建构着客观的理想世界,它表面上可以为新闻生产赋予客观中立的信任度,带来平等、公正的技术理想国,实际上算法的每一个环节都存在偏见。例如,训练人工智能图像识别的数据库是否存在偏见?“数据清洗”过程是否客观?机器的深度学习以及程序设计是否会受到人类社会偏见的影响?有研究发现:“ImageNet的图像有45%来自美国,超过60%来自最主要的6个欧美国家。而中国和印度加起来有全球三分之一的人口,数据集中却只有3%的数据量。”[8]可见数据库本身是存在偏见的,这些偏见会使新闻报道对一部分人群“选择性失明”。所谓的算法中立不过是人们对数据和技术的乌托邦想象。[9]其背后的黑箱如同隐藏在冰山之下的暗角,智能生产隐藏在黑箱之中。人工智能没有识别偏见和施加偏见的能力,机器还不具有人类的智慧,其深度学习会毫无保留地习得人类一切偏见,这种无意识偏差在黑箱效应下无法被普通人获知,很有可能会继续强化人类的社会偏见与歧视,导致偏见在内容生产中不断循环。

算法偏见并非独立存在,它与社会偏见有着紧密的联系,算法偏见受到权力的操控。福柯用“权力的眼睛”描述现代权力由压迫性转化为柔性制约,这种柔性权力并不局限于司法部门,而是体现在技术和手段中。[10]因此,智能生产新闻的偏见相较于传统新闻生产的偏见更加可怕,它藏于技术的黑箱之中,受到权力的控制与调整。

(三)网络新闻分发层面

1.信息茧房:圈层传播违背协商民主原则

学界对算法产生的信息茧房效应有着不同的看法。一些学者认为信息茧房是个人对信息进行选择性接触造成的;一些学者则赞同算法以个性化定制的手段为用户制造“信息茧房”。丁汉青和武沛颍则认为,智能推荐技术让具有选择性接触的人处于预先选择的信息环境中,所以信息茧房其实是自我选择个性化和预先选择个性叠加所产生的效应。[11]凯斯·桑斯坦极其关注社交媒体与民主体制背后的问题,并且分析信息茧房是如何产生的。他认为信息茧房会威胁协商民主的建立。这一观点在智能分发领域同样适用。桑斯坦提到协商民主的两个必要条件:第一,人们应该有未经过计划和无法预期的信息接触;第二,公民应该互相分享共同的经验。[12]显然,智能分发的新闻符合用户预期,并且贴合用户观点,一旦用户在平台获取信息知情的满足后,再去获取超越预期的信息的概率大大降低。另一方面,智能推荐分发的新闻是用户想要看到的新闻,异己观点的声量远远小于同己观点,这种圈层化传播很容易形成圈层区隔,圈层之间无法进行经验交流,共同经验无法达成,甚至会演化出观点极化的现象。

2.权力异化:智能分发产生舆论操控风险

在传统的、封闭的、层级化的传播中,传媒的议程设置能力和影响力是无法超越的,它能够决定受众注意和选择的范围,并且这种能力受到严格的监管。而网络新闻生产的泛化、把关权力的弥散化,让网民能够在公开的议事空间参与事件讨论,甚至参与新闻的生产。个性化推荐平台出现后,由算法支配新闻分发的过程,并对把关权力进行收编,把握着新闻分发的规则与透明度。以人工智能为主的智能新闻推送,将把关和分发权力交给机器或者商业平台,具有了传统媒体影响舆论和引导舆论的能力,失去道德约束和监督的分发主体,可能会操控舆论走向,支配用户对事件的认知以及态度。算法利用这种影响力编织着社会合意,操控舆论。

二、人工智能影响网络新闻生产与传播安全的原因分析

马克斯·韦伯提出来的“工具理性”与“价值理性”,可以为分析人工智能影响网络新闻生产与传播安全背后的原因提供思路。马克斯·韦伯为理性下过定义——“摈除作为达到拯救的手法的魔力:把魔力从世界中排除出去,并使世界理性化的过程或行为”,[13]也就是通过合理的技术,借助合理的计算达到精准的目标,这是一个“祛魅”的过程。而人工智能的发展贴合了理性的目标,数字的量化帮助人们完成对世界的合理认知,消除了世界的神秘感。后来,马克斯·韦伯提出“工具理性”和“价值理性”的概念,“价值理性决定于对某种包含在特定行为方式中的无条件的内在价值的自觉信仰,只追求这种行为本身,而不管其成败与否。”[14]工具理性注重手段和目标,价值理性注重行为的内在价值。在现代生活中,过于注重某一方面都会造成不良后果,两者平衡才能促使现代社会健康发展。马克斯·韦伯的理论和观点,有助于我们考察网络新闻生产的社会行为,价值理性与工具理性的关系失衡,将导致人工智能在新闻领域的应用发生异化。

(一)人机关系失衡,智能技术成为生产惯习

虽然相较于传统生产,智能生产、智能分发能够提升生产的效率,高效处理各种类型的稿件,但是人工智能对网络新闻生产的全方位介入,促使生产者对技术的依赖加强,使得万物皆可计算,人工智能已然在某种程度上,成为新闻生产的习惯。“人们认为软件可以创造奇迹,而事实上,大多数软件会犯非常低级的错误,让它变得非常愚蠢。”[15]数据也会犯错,机器创造的超真实让人们自以为是真相。人类过度依赖智能化的工具理性,轻信技术,它所带来的便利性和平等神话具有一定的“误导性”,使人们忽略了人工智能在新闻生产中的实际风险,反而促使技术理性逐渐成为一种生产思维,人的主体性地位下降。依靠人工智能技术分析数据,却让自己丧失了数据分析能力;依赖技术进行新闻写作,自身却失去了写作能力。人们想通过技术来控制新闻的生产,获取更多的用户、引导舆论走向,反而会使自己成为机器的附庸,理性也变成了获取经济利益和对舆论进行控制的工具。

罗伯特·基欧汉和约瑟夫·奈在《权力与相互依赖》中,提出了复合相互依赖理论,从政治角度探讨依赖与脆弱之间的关系,国家治理对网络越依赖就越脆弱。[16]该理论虽然是从政治角度分析国家间经济的相互依赖,但也为分析技术依赖问题提供了思路。网络环境处于一种不稳定的状态,新闻内容生产对人工智能越依赖就会越脆弱,就越会受到人工智能的伤害。人对技术的依赖加强,却又不得不使用技术,这种依赖将产生反噬效果。马克斯·韦伯曾经提出现代人的行为越来越符合理性的要求,现代科层制就是合理化的现实体现。[17]人工智能是未来发展趋势,但最可怕的是人们逐渐沉浸于技术所创造的物质世界中,认为任何生产活动和社会行为都可以通过技术进行,任何风险都可以通过技术来消除。

(二)商业主义与专业主义失衡,价值导向发生偏斜

“新闻专业主义的理念是工具理性和价值理性的混合体。”[18]在实际的新闻实践当中,有媒体过于追求商业利益,用技术的高效性获取用户数据,以便更好地迎合用户需求。新闻生产者若在竞争中以实现效率、利益为目标时,技术就逐渐成为获取经济利益的手段,数字增值成为最终目标,新闻生产的效率和利益超越了新闻的质量。在大数据时代,人们对数据崇拜而片面追求点击率,量化用户行为,迎合用户需求,忽视公共新闻的价值、情感价值和精神价值,将会导致商业主义与专业主义的失衡。我国媒体必须充分发挥专业性,服务于公众利益,提升社会效益。当然,媒体也需要追求经济利益以更好地服务于新闻生产,通过技术来发挥新闻的最大价值。但由于工具理性的功利性,人工智能的天然独占能力和平台增值能力,容易让新闻生产者将效率和利益放在第一位,人的本质和专业性会被放在次要地位。

有人认为新闻是一种艺术品,而技术却让新闻成为一种大众化产品。人工智能新闻是根据人类设计的模板进行批量化生产,失去了传统新闻的韵味与灵性。本雅明认为随着机械复制技术的产生, 艺术作品失去了其特定历史情境的规定性 , 艺术的“灵韵”开始消失 ,失去了它的膜拜基础。[19]利用人工智能技术,新闻成为可以批量生成的产品,变成一串又一串的数据,文字的想象力消失。这种变化主要是由于商业主义的介入,目的是创造平等神话,让所有用户皆可接收新闻,但是新闻当中的文化与艺术性逐渐消失,并且在批量复制和商业浸润下,削弱了文化传承的效果,泛娱乐化新闻增多,违背新闻专业主义理念。传统新闻具有深度、温度和专业性,而网络新闻生产却在人工智能的辅助下,偏离了新闻专业主义的轨道,趣味性得到前所未有的重视,技术理性让人工智能的作用发挥最大化,然而新闻最重要的价值——深度与专业却让位于娱乐性。

三、人工智能影响网络新闻生成与传播安全的治理

人工智能带来的安全风险,实际上是技术与网络新闻生产相互作用的结果。治理人工智能对新闻生产带来的安全风险,需要在认识人工智能的特点以及网络新闻生产、传播的流程上,提升网络新闻生产者的社会责任感,充分发挥人在网络新闻生产、传播中的主导作用,从而促使人工智能更好地为网络新闻生产和传播服务。

(一)改善生产行为:提升新闻生产的透明性和开放性

算法透明度问题本质上也是新闻生产的透明度问题。[20]人工智能的“黑箱”问题让新闻生产成为秘密工作,公众无法获知黑箱背后是谁在控制新闻生产流程,权力滥用和隐私侵犯变得更加隐蔽。人工智能能够为新闻生产创造价值,但如果无人监督则会失去规范。哈贝马斯提倡建立“交往理性”,他将“交往”分为三个层次:交往行动、交往关系、交往关系结构。其中“行动”是一种以理解为目的的社会行动[21],放在新闻生产中,便是人工智能与人的新闻生产行为,这种行动必须要为人类创造价值,服务于人类的美好生活追求才能保持社会的一致性。因此,人工智能的运用需要开放的环境和公众的监督,形成合作、对话机制,促进理解,提升透明度。

提升新闻生产的透明度,能够让公众对新闻生产有一个大体认知,公众监督网络新闻生产,可以保证新闻生产的客观性。一方面,可以开放网页源代码,让新闻可溯源。另一方面,公开网络新闻的信源、生产者以及生产标准,并对新闻进行必要的解释。当然,透明性的另外一个原则是参与的透明性,要求媒体具有一定的开放性,让公众参与到媒体的生产中来。人工智能技术虽然在网络新闻领域广泛应用,但并不是人人都能够了解人工智能的使用。所以,在人工智能的应用下,这种参与的透明性不再只是希望公众能够提供信源、参与生产,而是让越来越多的公众能够了解人工智能的运行模式,提升人工智能的可理解性,提升对网络新闻生产的监督效果。

(二)建立平衡的人机关系:树立人机协同理念

哈贝马斯交往理论的第二层含义是交往关系。哈贝马斯认为,尽管生产力的发展对于消除社会冲突非常重要,但是建立良好的社会交往关系,对于消除社会冲突也有所帮助。[22]良好的社会交往关系就需要技术与人在协商、理解中建立互动机制,提升社会行动效率。也就是说,交往理性倡导行动主体要明确自己的定位,克服科技理性的问题,重视各自的价值,取长补短。麦克卢汉认为“任何发明或技术都是人体的延伸或自我截除。这样一种延伸还要求其他器官和其他的延伸产生新的比率。”[23]根据其观点可知,人工智能延伸了人类的功能,却打破了平衡,因此需要创造一种新的平衡,才能够促进人机共生。

人机共生是一种平衡、动态的状态。在网络新闻生产中,人工智能发挥效能并服务于新闻生产,不但需要技术的正当运用,还需要人占据主导地位,更好地引导技术带来的负面效果。我们无法停止技术的发展,也无法根本地改变人性。[24]只能够将人的理性与技术的理性结合起来,发挥共同体的力量,在这样的关系中技术的生产力和人类的道德应该相互配合。

1.发挥人工智能的优势,以主流价值引导舆论

新闻生产对构建良好的舆论环境至关重要,因此应该最大化发挥人工智能的优势,服务于舆论引导。具体来说,要明确人工智能的应用语境。对于深度报道、深度解读则需要记者的采访与写作,发挥人类的情感与智慧。对于体育赛事、地震报道、突发事件、会议新闻等,人工智能可以进行高效处理,合理使用数据,自动化生成视频、文字,提升新闻的传播效果,更好地引导舆论。尤其是需要个性化服务的群体,比如经济新闻、融合新闻,媒体可以采用个性化推荐方式,为特定群体提供新闻。相较于传统新闻生产,网络新闻生产没有严密的生产体系和审核流程,新闻的政治性和导向性无法得到充分保证。因此,技术设计者需要将主流价值观铭刻在技术设计中,将党管媒体这一原则延伸至技术领域,以确保新闻报道的导向正确。

2.提升社会责任感,加强把关与事实核查

平衡人机关系其实就是规范人的行为。在新闻实践中,为人工智能预设价值观和动机有一定的困难,它要求机器自然懂得什么是道德、什么是正确价值观,需要依赖人类的主观能动性。机器并不是具有自我意识的智慧主体,没有领悟人类道德和价值观的能力。因此,人机协同最重要的依然在于人。“不要将价值观托付于机器。我们最好让机器人始终保持它们物的基本属性。人所能做的甚至只能做的可能就是限制它们的手段和能力,而不是给它们建立一套以人为中心的价值体系。”[25]智能生产要充分发挥人的主体作用,突出价值理性的调节作用。其中,生产者的道德和职业素养决定着新闻的质量,也决定着人工智能的作用之处。技术是生产的手段而非目的,更不是主体。人工智能新闻本质上还是新闻,记者应该具有社会责任感,发挥自身的写作优势,将利用人工智能所创造的成果共享于社会。

(三)建立合理的关系结构:重评估与监管,增强智能生产的适应性

根据哈贝马斯交往理论的第三层含义,也是最高层次——交往结构,这个层次旨在建构“理想的交往共同体”[26]。在这个共同体中,人类与机器的和谐关系逐渐固定,开始走向建制化,这是建立在交往行为和交往关系基础之上的结果。在人工智能的发展过程中,难免会遇到技术发展与新闻生产的“不适应症”,人工智能产品是一种“成长品”,发展方向难以预测、需要即时调整、即时反馈[27]。这是因为人工智能的出现并不是天生服务于新闻生产,技术的异质性在新闻领域被放大。因此人机合作关系需要在生产层面进行规范化管理,降低人工智能技术的异质性,提升网络新闻生产的适应性,防止数字风险和技术安全影响反噬网络新闻生产。

新闻产品具有强大的意识形态功能,公共性不可缺失,智能生产必须要服务于公众,增强社会责任的实践能力。首先要建立合理的监管和评估体系,在顶层设计层面将责任和公共性考虑进来。技术是不断发展的,网络新闻生产也在不断进步,评估体系和监管标准需要实现动态化改善,对智能产品进行成长性验证,对不适应症进行约束。其次要明确新闻生产与技术增值的边界,实现规范化管理,寻求增强社会福祉与提升经济效益的“最大公约数”。技术不是新闻生产的唯一选择,网络新闻生产应降低技术依赖性,增强对技术的控制能力。

四、结语

当我们知道“人类终将灭亡”的时候,其实不以为然,因为这离我们还十分遥远。但是有学者已经提出人工智能对人类产生的风险时,我们就要开始警惕。当我们意识到这种风险时,它离我们就很近了。人工智能在网络新闻生产、传播中的应用,会持续带来许多不确定性因素和风险,然而人们对人工智能技术的安全风险了解却远远不够。人工智能技术的发展在很大程度上改变了新闻生产、传播方式,但没有改变新闻生产的原则、伦理。“也许我们应该关注什么可以让我们变得更聪明,而不是专注于如何创造更聪明的机器来取代人类智能。”[28]

【本文为湖南省社科联课题《多元主体协同的中国互联网内容分类治理机制研究》(编号:XSP19YBZ169)和长沙市自然科学基金项目《互联网信息内容安全风险生成及生态治理机制构建研究》(项目编号:kq2202181)阶段成果。】

作者陶贤都系湖南大学新闻与传播学院副教授、博士


作者谭炯系湖南大学新闻与传播学院硕士生



参考文献

[1]何怀宏.奇点临近: 福音还是噩耗——人工智能可能带来的最大挑战[J].探索与争鸣,2018,11:55.

[2]陈景辉.捍卫预防原则:科技风险的法律姿态[J].华东政法大学学报,2018,1:61.

[3]郭晶,崔家勇.专用人工智能在新闻业的应用领域、关键技术与研发模式[J].科技与出版,2019,8:79.

[4]陈绚.新闻传播伦理与法规教程[M].中国传媒大学出版社,2007:223.

[5]G Ateniese,G Felici,LV Mancini,A Spognardi,A Villani,D Vitali. Hacking smart machines with smarter ones: how to extract meaningful data from machine learning classifiers[J].International Journal of Security and Networks, 2015,10(3): 137-150.

[6]夏玉民,石英村.人工智能发展与数据安全挑战[J]. 信息安全与通信保密. 2020,12:75.

[7]丁柏铨.智媒时代的新闻生产和新闻传播——对技术与人文关系的思考[J].编辑之友,2019,5:8.

[8]虎嗅网.当AI学会性别歧视[EB/OL].https://www.huxiu.com/article/258405.html,2018-08-20.

[9]郭小平,秦艺轩.解构智能传播的数据神话: 算法偏见的成因与风险治理路径[J].现代传播,2019,9:19—20.

[10]朱振明.福柯的“话语与权力”及其传播学意义[J].现代传播,2018,9:35.

[11]丁汉青,武沛颍.“信息茧房”学术场域偏倚的合理性考察[J].新闻与传播研究,2020,7:22—24.

[12](美)凯斯·桑斯坦.网络共和国[M].上海:上海人民出版社,2003:5.

[13](德)马克斯·韦伯.新教伦理与资本主义精神[M].北京:三联书店,1987:79.

[14](德)马克斯·韦伯.经济与社会,第一卷[M].上海: 上海世纪出版集团,2010:114.

[15]皮埃罗·斯加鲁菲.智能的本质:人工智能与机器人领域的64个大问题[M].北京:人民邮电出版社,2017:167—168.

[16]吴伟平.相互依赖关系中的敏感性和脆弱性辨析[J].社会科学,2010,4:20—25.

[17]仰海峰.法兰克福学派工具理性批判的三大主题[J].南京大学学报,2009,4:27.

[18]吴飞.田野.新闻专业主义2.0:理念重构[J].国际新闻界,2015,7:10.

[19](德)本雅明.机械复制时代的艺术作品[M].中国城市出版社,2002:63.

[20]许向东.关于人工智能时代新闻伦理与法规的思考[J].人民论坛·学术前沿,2018,24:61.

[21]欧阳英.关于交往概念的综合理解——由哈贝马斯交往理论引发的深入思考[J].世界哲学,2018,2:119.

[22]欧阳英.关于交往概念的综合理解——由哈贝马斯交往理论引发的深入思考[J].世界哲学,2018,2:120.

[23]马歇尔·麦克卢汉.理解媒介: 论人的延伸[M].何道宽译,北京: 商务印书馆,2009:78.

[24]何怀宏.奇点临近: 福音还是噩耗——人工智能可能带来的最大挑战[J].探索与争鸣,2018,11:57.

[25]何怀宏.人物、人际与人机关系——从伦理角度看人工智能[J].探索与争鸣,2018,7:32.

[26]欧阳英.关于交往概念的综合理解——由哈贝马斯交往理论引发的深入思考[J].世界哲学,2018,2:121—122.

[27]齐佳音,王琳琳,袁雨飞.人工智能产品的适应性创新逻辑—哈贝马斯交往理论视角[J].北京交通大学学报,2021,1:41.

[28]皮埃罗·斯加鲁菲.智能的本质:人工智能与机器人领域的64个大问题[M].北京:人民邮电出版社,2017:200.


实习编辑 吴昕圆  审读 李 诚   审核 刁瑜文

免责声明
未经许可或明确书面授权,任何人不得复制、转载、摘编、修改、链接读特客户端内容
推荐阅读
读特热榜
IN视频
鹏友圈

首页