欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

人工智能时代意识形态工作面临的机遇与挑战

程序员文章站 2022-06-22 14:22:45
当前,随着、、//mr、设备、等技术的快速发展,新一代的技术正在以超乎想象的速度和不可阻遏的姿态向人类袭来。人工智能的出现,不仅在生产应用领域使得生产力得以飞速发展,更重要的是对人类的生活方式和思维方...

当前,随着、、//mr、设备、等技术的快速发展,新一代的技术正在以超乎想象的速度和不可阻遏的姿态向人类袭来。人工智能的出现,不仅在生产应用领域使得生产力得以飞速发展,更重要的是对人类的生活方式和思维方式产生了深刻的变革,影响到了社会领域的方方面面。毫无疑问,也必然包括“党的极端重要的”意识形态工作。因此,深入思索人工智能背景下,意识形态工作将面临怎样的变革,又该作出怎样的应对和调适,从而化挑战为机遇、迎机遇而发展,这对新时代建设具有强大凝聚力和引领力的主流意识形态具有重要的理论价值和现实意义。

一、深度变革:意识形态工作的新可能

无论我们是否认可和接受,人工智能技术都在深刻改造和重塑着意识形态领域的工作,而且可以预见,这种影响在未来会更加深化和巨大,从而给意识形态工作提供更多新的可能。目前来看,人工智能对意识形态的变革主要体现在以下几个方面:

(一)意识形态工作机制的变革

马克思认为,随着生产力的发展、社会分工的细化,统治阶级内部也会相应出现分化,那些在知识结构、身份地位方面占据显著优势的人“是作为该阶级的思想家而出现的”,即所谓的“意识形态家”或“符号名流”。这些“意识形态家”作为统治阶级利益的维护者,主要职责就是通过系统整合和有效建构符合本阶级意志的话语内容,来实现统治阶级合法性的确证和被统治阶级的“思维干涉”。换言之,意识形态虽然在本质上是一个时代或一个社会占统治地位的统治阶级的思想,但是它并非阶级个体零散的、草率的自发性表达,而是由统治阶级内部积极的、有概括能力的“意识形态家”通过凝练、总结、抽象、概括等手段,以思想形式表现出来的“占统治地位的物质关系”。[1]p178 从中我们可以发现,意识形态话语的生成和运作机制离不开“话语主体”的思想家,将体现阶级意志和利益的话语内容,借助于语言的样态最终展示在世人面前。正如阿尔都塞所言,没有不借助于意识形态并在意识形态中存在的实践;没有不借助于主体并为了这些主体而存在的意识形态。[2]p302 尤其是在意识形态领域“众神喧哗”的当下,“意识形态家”们不仅是意识形态话语的生产主体,还是维护本阶级意识形态话语的责任主体。然而随着人工智能时代的到来,以智能化算法技术为基础的写作成为现实,技术被广泛应用于人类社会领域中,这进一步延拓了意识形态话语的生产主体,使得意识形态工作机制实现了向“人机协同”模式的过渡。

一方面,现有的机器写作主要是一种“人工模板+数据填充”的模式,即通过算法对海量数据和信息进行排序、删癣分类、过滤等,并将处理后的数据和信息匹配到先前设置好的文章模板中。当未来人工智能被嵌入了无数模板,或人工智能发展到“强人工智能”阶段,可以进行自主创新文章模板时,那么智能机器即可进行“独立”式的舆论新闻生产。其实早在2006年,的汤姆森公司就首次利用人工来写作领域的新闻报道。而我国在2015年,腾讯财经的dreamwriter机器人也开启了国内自动化新闻写作的破冰之旅。此后,包括今日头条的“张小明”、第一财经的“dt稿王”、人民日报的“小融”、新华社的“快笔小新”等写作机器人纷纷涌现,新闻编辑的工作逐渐让位于算法程序和装载的机器,舆论新闻的“生产流”遭致重塑。值得注意的是,这里生产的意识形态话语在本质上仍是人类的意识形态,而并非机器人的自我意识。另一方面,人工智能已然成为各个国家掌握意识形态领导权和话语权的重要方式,既是用来进行意识形态渗透的“智慧机器”,也是用来守护主流意识形态的“卫士”。比如,美国等西方国家竭力以人工为武器,在互联网上批量化制作和传播虚假新闻或恶意流言来攻击与其意识形态对立的国家,极具隐蔽性和便捷性。这就需要以“技术反制技术”的思路来防范这类意识形态风险,通过人工智能技术的优化来强化对异质意识形态的监测和过滤。人工智能与“意识形态家”们共同发挥了生产自我术语、摧毁其他术语从而占据支配性地位的价值功能。

(二)意识形态传播模式的变革

人类自诞生以来,主要经历了信息传播的四个阶段,即口语传播、文字传播、传播以及传播。在文字发明之前,信息的交流主要以“口口相传”“面面相授”的方式来进行,这种传播易受到时间和空间的条件限制。在文字发明之后,尤其是印刷技术的出现,使得书籍、信件、报纸等成为信息传播的重要载体,语言的交流拓展为文字的沟通,一对一和一对多的传播方式成为主流。这种单向线性传播方式,又存在着忽视受众反馈的问题。近年来,随着互联网技术和设备的飞速发展,网络平台已然成为信息交流的主场域,“以用户为中心”的多对多传播方式迅速普及,彻底颠覆了原有的时空壁垒,实现了信息传播者与接受者之间的即时互动,信息传播的效率、效果整体上跃升到一个新层级。

人工智能技术进一步深化和发展了“以用户为中心”的互联网时代的多对多传播方式。仰仗技术,传统“一刀切”式的信息推送模式将被“个性化”的推送模式所淘汰和取缔,意识形态的传播模式迎来了新变化。(微信公众号:思政学者)在传统模式下,信息的选择和排列主要基于人工的判断,信息生产者或传播者推荐什么、受众只能看到什么,而且考虑的是大众的普遍性兴趣,而不是受众的个体化需要。在信息爆炸化的时代,这种做法能够控制议题设置,但受众的认同度和接受度却较低。然而,随着技术应用,信息的搜集、筛癣分析、推算以及最终的分发主要由机器来全程承担,这无疑是信息传播的一场革命。首先,通过的手段来搜集用户特征(如职业、年龄、性别、兴趣)、信息特征(信息的形式、内容)以及环境特征(时间、地点)等信息。其次,依靠算法对这三者信息进行抽象提取并数据化处理和匹配。最后,建立起精准的用户画像,根据用户的个性偏好和倾向性,为不同的用户以其偏爱的方式来推送和呈现他们所感兴趣的内容,实现信息传播的“私人订制”。可以说,这种个性化信息分发机制为内容和用户间提供了一种新的传播方式即让内容主动“找到”对它感兴趣的人,信息与需要此类信息的人实现极速、精准匹配,达到信息传播的社会效用最大化。

(三)意识形态呈现方式的变革

在传统媒介时期,意识形态的呈现方式主要局限于单薄的文字、悦耳的声音和静止的图像。到了网络媒介时期,意识形态的样态更多的是通过音频、影像、图片、等形式综合展现出来。而人工智能时代,/ar/mr、设备的兴起打破了原有以单纯的文字符号、图像视频、语音等二维方式来呈现信息的单调格局,通过/ar/mr技术模拟产生的虚拟世界,为用户提供了视觉、听觉、触觉等三维式的感官体验,即营造出信息表达的“场景感”,使受众获得“沉浸式”的体验。得益于此,意识形态的呈现方式也从“平面化”转向“立体化”。

以解释和宣传国家意识形态的新华社、人民日报等官方主流媒体为例,早在2015年,人民日报就制作了“9.3”大阅兵的全景视频,720度全方位展现了激动人心的盛大阅兵场面。2016年,央视网使用可实时拼接10个全景摄像头的4k全景摄像机,全景直播了“体坛风云人物颁奖典礼”,用户可以通过佩戴头盔观看,体验到如临现场的氛围。2017年的十九大以及2018年的两会期间,更是掀起了一股“+新闻”的热浪,通过图片、直播、视频等全媒体形式来报道新闻成为新的潮流。如新华社客户端在两会期间发布的“”报道《ar看两会|*工作报告中的民生福利》,用户点击客户端中的“小新机器人”,使用ar扫描功能扫描身份证,就可以立体化、全景式地浏览*工作报告,从而以更强的“沉浸感”来接受国家意识形态的传输和影响。

二、颠覆传统:意识形态工作的新挑战

人工智能的出现,使新闻舆论和意识形态工作从“生产端”到“流通端”都发生了颠覆和变革,通过等前沿技术的应用,可以大大提高意识形态工作的效率,提升意识形态传播的精度,增强意识形态样态的感染力,从而推动意识形态工作更为感性化、大众化和时代化,促进民众对主流意识形态的认同。但是,人工智能的发展同样也给意识形态工作带来了一些挑战,甚至在某些方面是一种“本体论”层面上的威胁。具体而言,有以下几个方面:

(一)“意识形态终结”的误区

关于“媒介技术是否具有意识形态”问题的探讨由来已久。有人认为,媒介技术仅仅是价值中立的没有任何价值和意识倾向的“工具”。也有人认为,媒介技术并不是价值中立的,而是具有意识形态属性的,直接或间接地服务于统治阶级的政治统治。如西方学派的“媒介即意识形态”理论。事实上,将媒介完全与意识形态对立,或将媒介直接等同于意识形态,都是非辩证思维下的认知偏误。前者是只知其自然属性,忽视其社会属性;后者又夸大社会属性,弱化自然属性,最终走向技术决定论。应该说,媒介技术本身是社会实践活动的工具,但是,媒介技术由谁来使用、如何来使用,必有“人”的介入,这也就相应地带来了“意识形态”的介入,因而媒介应用的背后实则蕴含着具体的社会制度和意识形态。步入人工智能时代,一旦算法被制定完成,人就可能实现某种意义上的“退场”。此时,智能机器的社会属性貌似隐遁了,智能技术好像成了纯粹的工具。那是否意味着人工智能技术就此真正实现了价值中立呢?换句话说,意识形态在人工智能时代实现了另类的终结吗?实际上,人工智能时代的信息产品的生产,仍然摆脱不了意识形态的身影。虽然在现实生活中,技术公司可能总会宣称其研制的算法是中立客观的,但是本质上算法还是要由人来编写,而人作为“意识形态的动物”,不可避免地就要带有自我的价值偏见。比如,有学者就指出,在美国总统大选期间,无论你从哪里开始,无论搜索特朗普还是克林顿,youtube的推荐算法都更有可能将你推向支持特朗普的方向。可见,人实则通过算法的方式再次赋予了人工智能技术的意识形态属性。此外,值得注意的另一个问题是,既然可以通过人工智能技术生产出具有意识形态属性的信息产品意识形态内容,那这是否意味着“机器的大脑”已经可以替代“人的大脑”来产生意识呢?马克思主义的“意识是人脑机能”的观点也宣告过时了?“机器的大脑”终归是人所设计出的算法在发挥作用,可谓是“人的大脑”的“机器化”。人工智能只是人类在社会劳动中创造出来的生产工具,是依靠模拟人的思维的信息过程满足人类生产需求而制造的产物,它的工作的过程充其量是机械的、物理的过程。人工智能能模拟人的思维,这种模拟只是功能上的模拟,无论这种模拟如何无限接近人的思维,但它始终不能等同于人的思维,更无法奴役人,毕竟人的社会属性和主观能动性是人工智能无法企及的。正如有学者指出,人工智能始终是工具性意识,“不论是强人工智能还是弱人工智能,实际上都是基于意识的物理基础对意识内容或意识形式的仿真,没有触及人类意识独特的主观感受性问题”[3]。诸如“中文房间”等实验也进一步验证了人工智能“意向性”的缺乏。所以,人工智能时代,“机器的大脑”不仅永远无法取缔“人的大脑”,其生产出的信息产品也必然无法剔除意识形态的印记。

(二)“信息茧房”的桎梏

“信息茧房”(information cocoons)这个概念由美国知名学者凯斯r桑斯坦(cassrsunstein)在其著作《信息乌托邦:众人如何生产知识》中提出:在信息领域,公众对信息的选择具有明显的倾向性,只会注意到那些感兴趣、使自己愉悦的东西。久而久之,就会将自身束缚于像蚕茧一般的“茧房”之中。[4]p8 而人工智能技术的出现,则进一步在技术层面改变了人们接受信息的议程设置,“信息茧房”对“单向度的人”的出现起了强化和极化作用,加剧了“信息茧房”效应的产生,对主流意识形态的传播和治理等工作提出了严峻挑战。

众所周知,主流意识形态本身就具有相对的严肃性、抽象性、整体性和厚重性,再加之网络领域中的主流意识形态在传播形式上较为单调、内容上稍显枯燥,公众对主流意识形态的接受度和认同度较低。而网络领域中诸多非主流意识形态,在内容上抓人眼球,娱乐性、通俗性、鼓动性、消费性较强,形式上也赏心悦目,时常成为公众追捧和热议的话题。在人工智能时代,借助于和技术,内容的分发将更加智能化、对象化、个性化,可以实现“精准制导”“智能推荐”,即只推荐用户感兴趣的内容。那么,公众出于对主流意识形态的排斥和抗拒心理,将“偏食”“迷恋”于令人愉悦的非主流意识形态,从而难以接受到主流意识形态的辐射和影响。而且,有基于用户的协同过滤系统,即算法根据持相似偏好用户的信息接触行为,为目标用户推送相同或相似的内容。[5]p120 也就是说,用户一旦表现出感兴趣某种议题,算法将最大比例地推送相似的信息给用户,相应地,另一些不同的信息就会被算法自动过滤或遮蔽。这似乎形成了“回声室效应”,即在一个相对封闭的空间中,同类型的信息反复重现,并以不符合实际的形式呈现出来,最终使得该空间中的大部分人错以为这些信息就是事实全部。这种效应下,人们对事实真相的探索或对社会的认知就必然会出现“管中窥豹”的结果。(微信公众号:思政学者)如用户出于本能或个人兴趣点击“性”“星”“腥”等方面的内容,在人工驱动下的推荐系统,会根据用户兴趣无限度地推送类似的信息。长此以往,用户便将“性”“星”“腥”等作为人生的全部,从而因缺失主流意识形态引导而丧失理想信念、迷失正确的价值追求。可见,“信息茧房”一旦生成,就会形成一个相对封闭的舆论场域。而一旦主流意识形态被拒斥在这个场域之外,那么身处其中的成员便很难与外部的主流意识形态实现互动,主流意识形态试图建构起具有凝聚力、团结力、向心力的“网络空间命运共同体”,势必步履维艰。

(三)“权威性消解”的风险

在传统媒介时代,主流意识形态的话语权威主要源自其对大众传媒信息资源和话语表达渠道的占有,并通过设置议程来左右社会话语符号,从而影响“受众”的意识形态。到了人工智能时代,大众传媒信息资源在互联网领域中是共通共享的,公众获取话语或者话语表达的渠道不再是单一而是多元的,甚至平台和用户自身在一定程度上也拥有了原来主流媒体所独享的议程设置权或议题主导权,人工智能时代信息资源的开放共享性彻底打破了传统主流意识形态的话语垄断,绝对权威的形象正在遭遇瓦解的风险。

传统媒介时代,记者、编辑、媒介组织机构是信息产品发布的“把关人”,人们所认知的信息环境是一种被大众媒体处理筛选并加以结构化后的“拟态环境”,代表精英阶层的大众媒介实则控扼了用户“能知道什么、不知道什么”的权力,也就是拥有社会议程设置和选择的主导能力。但在人工智能时代,信息传播的核心是通过算法来进行分析和分发的,用户基于共同兴趣的点击或浏览便可轻易构建起相关热点议题。这种议程建构的方式降低了对传播机制和媒体地位的依赖,而更多地考量公众的参与和认同。这样,议程建构的主体就被翻转过来,传统时代千百万的用户也变成了主体,主流媒体对议程设置的主导权遭致下放。

算法不仅承担着公众话语建构的职责,而且还在一定程度上取代了主流媒体引导舆论、整合社会的传统职能。在大众传媒时代,由于信息传播路径呈现出“自上而下”式的单一化格局,公众对媒体议题往往有足够的注意力,新闻媒体在以传播主流意识形态内容来塑造舆论环境、整合社会意识、维系社会稳定等方面能够发挥出重要作用。网络信息化时代的社群分化现象则削弱了这种注意力,传统新闻媒体强大的舆论引导功能日渐弱化。而人工智能时代“聚类算法”的出现,又使分化的社群重新得以专注起来。但此时,社会舆论的引导权已经悄然发生转移,即由主流新闻媒体引导转向了由引导。公众专注的也不再是由新闻媒体推送的主流议题,而是算法根据用户偏好分析出的个人议题。而且,人工智能时代,网络信息的传播还表现出明显的“痛点”传播和“泛娱乐化”传播趋势,即带有“刺激性”“问题性”“夸张性”的“痛点”内容,和“消遣性”“取乐性”“低俗性”的娱乐新闻,往往能够传播广泛、影响甚深,如“城管打人”“官员腐败贪污”“明星出轨外遇”等等,时常引起全民热议。但是,具有严肃性的“主流时政新闻”“社会正能量事件”在互联网中却频频遭遇漠视相待,甚至是无人问津。哲学家雅克埃吕尔(jacques ellul)认为技术相对于人是自主的:“我们已经看到,在技术的自我增长方面,技术沿着它自己的路线前进,越来越独立于人……人降低到了催化剂的层次。”[6] 在技术“痛点”传播心理与“”相耦合的局面下,人的身份就成了防止算法跑偏的把关人、不断给算法系统升级的工程师以及推荐新闻的收受者,主流意识形态议题的“冷遇”现状就愈演愈烈,主流意识形态的话语权威也日渐式微。

(四)“技术性失业”的困境

“技术性失业”一词最早是由经济学家约翰梅纳德凯恩斯在1930年提出的。凯恩斯在一篇极具前瞻性的文章《我们后代的经济前景》中预测,世界正处于革命的边缘,众多产业在生产速度、效率和“人类成就”方面都将发生革命。“我们都患上了一种新的疾病,有的读者可能还没有听说过它的名字,但在未来几年里这个名字将不断萦绕在人们的耳边。”[7]p139 这个名字就是“技术性失业”。事实上,新技术的发展总会带来一定工作的数量、类型和组成的相应改变。但是,人工智能涉及领域的广阔性和影响的深远性,使得这种“技术性失业”的忧虑达到了前所未有的规模和程度。卢克多梅尔认为,就人工智能对就业的影响而言,最意想不到的转变发生在那些不需要体力劳动的白领工作中。如今机器的任务是执行认知劳动而不是参与认知劳动,在认知劳动中,机器将取代我们的大脑,而非我们的身体。[7]p142 毫无疑问,作为从事脑力劳动的意识形态工作者,在向人工智能时代的转轨进程中,不可避免地会遭遇到自我角色的定位和转型、岗位需求减少等一系列困境与挑战。

随着信息产品自动化生产能力愈加提升,传统的信息生产模式遭到解构,智能机器通过算法和强大的能力,可以在无人介入的情况下实现一定信息的自主生产,“人”在信息生产中的地位和功能被进一步弱化。这对新闻舆论领域的意识形态工作者影响更为明显,机器写作新闻的能力提高所开创的新的新闻内容的领域之广已经远远超过了人类记者的生产能力,这不仅体现在生产的新闻数量,而且在速度方面也令人类记者难以匹敌。[8]p27 既然机器人在生产新闻的“质”和“量”层面都赶超了人类记者,那么人类记者就有可能被机器人所取代。不仅如此,人工智能时代意识形态的呈现方式从“平面化”转向“立体化”“沉浸化”,通过/ar/mr等技术来生成意识形态内容将成为主流趋势,因而未来对于意识形态工作者的需求,也必然要从传统以“文字编辑”为定位的“单一型”角色,转向以“内容+技术”为定位的“综合性”角色。由此,这给缺乏技术的意识形态工作者们带来了一定意义上的“失业风险”。

三、人机共融:意识形态工作的新图景

当意识形态工作遭遇人工智能的挑战不可避免时,我们要做的既不是悲观拒斥,也不是视而不见,而应理性思索、认真分析、寻找积极应对之策。学界大部分学者认为,人与人工“合谋”与“共谋”将成为新时代媒介的新景观,也是解决人与智能机器矛盾与冲突的根本出路。对意识形态工作而言,亦是如此。但是,探讨建构“人机共融”的意识形态工作新图景,首先需要解决的还是人类与人工智能的关系理解问题。长久以来,人们要么将“机器看作是人类的威胁”,要么将“机器视为人类的福音”。但是,随着历史实践的发展,人们越来越认识到,机器即使能够在很多方面取代人的劳动,但并不可能做到完全替代。人类发展技术的目的并不是也不会消灭自己,而是让人能够拥有更大的*来从事更有价值的劳动。技术哲学家唐伊德就认为,人与技术的关系有三种,即具身关系、诠释关系与它异关系。而人工智能与人类之间的关系实则是一种“它异”关系,[9]p23 也就是说,人工智能既不是一种纯粹的实用技术,也不是屈膝服从的仆人,而是作为“它者”身份的人类的新伙伴和好朋友而存在。这就从历史发展的逻辑视角为人与人工智能的共处提供了线索。

进一步需要追问的是,在实践层面上,人工智能作为延伸意识形态工作的新媒介,作为意识形态工作者的新伙伴,该如何实现“协同共生”的意识形态工作新图景的构建,笔者认为,应该着重解决以下四个方面的问题:

(一)人工智能与意识形态创新的问题

马克思说过:“理论在一个国家实现的程度,总是取决于理论满足这个国家的需要的程度。”[1]p11 根据时代变化和实践需要,不断创新发展指引现实的主流意识形态理论,是提升*意识形态吸引力的必然要求。事实上,传统的意识形态创新还是主要集中于理论的科学性上的满足,强调的是意识形态理论的真理性与现实的匹配性所产生的理论说服力。然而在信息网络化时代,意识形态理论与现实的联系牵涉到复杂的主体认同,这种认同要素不仅包括意识形态“体”之维度的内容,还关涉意识形态“用”之维度的形式。即使意识形态本身具有科学性与真理性,倘若被拙劣的形式所包裹,同样会失去应有的锋芒而遭人嗤鼻。正如有学者指出的那样,“除了本身科学性的强化,主流意识形态还需要适当地改变自己已有的文化形象和叙述方式以求获得更大的吸引力”[10]p130。人工智能时代等新媒体技术的发展,颠覆了传统的信息呈现景观,为主流意识形态以更加具有吸引力的文化形象向更加广阔的社会空间传播,以更为灵活多样的形式来包裹与创新主流意识形态创造了现实条件。由此,我们需要转变意识形态创新的传统思路,既要在内容上“下功夫”,也要在形式上“做文章”。这就要求主流媒体紧跟人工智能发展潮流,强化对人工智能技术应用,精准掌握用户需求,善于借助视觉新技术,智能推送面向用户的个性化内容,开展有针对性的舆论引导,增强主流意识形态的吸引力和认同度,扩展其在现代社会的渗透和内化效率,巩固起在意识形态领域中的话语权威和领导地位。

(二)人工智能与意识形态传播的问题

人工智能时代,技术、代码、算法替代了传统内容分发过程中专门把关内容的编辑。推送何种内容、向谁推送内容,不再是由编辑,而是全权交予算法来决定。人工不仅是一项新技术,更是新的权力形态。算法即权力。[11]p3 与其他领域相比,算法早已渗透意识形态领域,在网络空间,算法实际上掌握了意识形态传播的选择权和控制权。“算法没有偏见,我们有。”[12] 所谓的算法偏见是指“看似客观中立、没有恶意的程序设计中,却带着开发者的偏见,或者因所采用的数据存在倾向性,或者因设计技术局限,在实际应用中导致了种族歧视、性别歧视、年龄歧视、阶层歧视、区域歧视、仇外思想等严重的政治后果”[13]p29。算法偏见对意识形态的影响不可估量,只需要改变一行代码,算法和背后的公司就能让公众看到他们想让公众接受到的意识形态内容,而对其他的则视而不见。而且算法本身的兴趣推荐方式,也存在弱化严肃性的主流意识形态内容、加剧色情低俗等非主流意识形态野蛮生长、造成“信息茧房”和群体分化等负面效果。鉴于此,面对算法,我们要正确面对它、接受它、管理它、约束它、规制它,让它听命于人,服务于人,而非危害于人。在维护我国意识形态安全问题上,要加强对算法的信息推送机制的引导和监管,要从构建“人机融合”的模式出发,正确处理人与算法的关系,破除主流意识形态传播的困境,促进社会主流共识的凝结。(微信公众号:思政学者)首先,管理算法,探索建立“人机结合”协同分发信息的新模式。在智能信息内容的推送上,引入亚马逊首席执行官杰夫贝佐斯所称的“人工的人工智能”[14]p734 方式,投入一定的人工劳动,由人来做传播渠道的“看门人”、信息分发的“总编辑”,避免因算法偏见或算法本身所带来的另类信息肆意蔓延等现象。其次,优化算法,推送信息中加强价值观赋能。算法作为人类的劳动产品和劳动工具,应该承担起维护社会良善、增进人类幸福、实现人类解放的公共的伦理责任。因此,必须坚持主流价值引导,优化信息推荐机制,赋能算法价值正当性,筑牢算法的价值根基,使其服从并服务于维护我国主流意识形态安全。最后,用好算法,利用算法强大功能助推意识形态传播的创新发展。借助算法,主流媒体要依据用户偏好、需求,及时更新信息,优化页面,增加用户浏览的舒适度,增强用户的粘合度。通过对体现主流意识形态的信息设置优先推荐权,来强化主流意识形态传播的效果和范围,进一步增强主流意识形态的影响力和辐射力度。

(三)人工智能与意识形态治理的问题

意识形态治理是意识形态工作的核心要义,其基本内涵就是统治阶级通过正式和非正式制度以及多样的治理方式来对意识形态领域进行思想的引领和安全的维护,进而凝聚共识、凝聚人心、汇聚力量。人工智能时代,与的发展为我国意识形态的治理提供了新的技术和方法支撑。其一,我们可以建立更为高效科学的网络舆情研判、分析和监测体系。基于强大的和实时的技术,对网络领域海量的舆论信息进行搜集整理、深度分析、动态监测,可摆脱传统调查手段因人为痕迹所带来的“数据搜集不全面”“数据分析不精准”“舆情预判不科学”等问题。通过量化的数据可以帮助舆情管理者更加准确地掌握社情民意动态,探求舆情发展演变的轨迹,进而作出更为科学的研判和决策。其二,我们可以借助算法技术来强化对网络空间的话语治理,净化主流意识形态的存植环境。在信息大爆炸的人工智能时代,网络空间所提供的各种信息良莠不齐,而且算法推荐下的信息分发模式极易导致那些不良言论,因反复推送给用户而造成更深的荼毒效应。因此,面对网络中具有极端、煽动、暴力、色情等倾向的另类信息,可以借助算法技术的方式来快速识别并加以屏蔽,从而营造出向上、风清气正的网络舆论环境。其三,我们可以通过改进和优化算法,来巩固主流意识形态在网络空间中的话题议程设置,强化主流意识形态的引导力。事实上,当今资本逻辑所主导下的新闻算法,不仅无法标榜自我的价值中立,而且在“利益至上”理念的支配下,新闻媒体机构会丧失甚至主动放弃其公共属性,而沦为资本家实现最大利润、牟取暴利的工具,难以担当起意识形态领域主流价值引领的职责使命。另外,人工智能在意识形态话语权、领导权、吸引力和凝聚力方面比传统媒体更隐蔽、更便捷、更快速、更强大,因此,维护意识形态安全,我们要从人工智能伦理、算法技术和国家治理等方面加强综合治理。首先,规范人工智能从业人员的思想和行为是维护意识形态安全的根本之策。人工智能对意识形态的操控,实质上是人对人的操控,即人工智能从业人员通过算法设计实现对人工智能的使用人员意识形态的操控。因此,加强人工智能从业人员的治理,规范其伦理道德和行为,成为维护意识形态安全的源头之举和根本之策。其次,规范立法,严格执法,保护个人隐私和算法治理,是维护意识形态安全的有效手段。最后,规制算法运算,矫正技术漏洞和人为缺陷。人工智能如尚在发育的孩童一样,在发展过程中难免会走弯路,出现技术漏洞和人为缺陷。我们要不断提高技术,用“技术反制技术”,矫正技术人员的技术漏洞和人为缺陷,让人工智能成为造福人类的发明,而非危害人类的魔鬼。

(四)人工智能与意识形态工作者的问题

建构“人机共融”的意识形态工作新图景,本义上也就是要实现人与机器的“功能互补和价值匹配”,即人与智能机器在合作中发挥出各自的优点来弥补相互的不足,在互进互长中触达意识形态工作的新层级新高度。在这里,人对于智能机器这一“新伙伴”的优点和不足的了解与认知,便具有了首要的意义。正如刘易斯芒福德所言:“为了征服机器,使之满足人类的需要,我们必须了解机器,知其所以然。”[15]p9 因此,我们的意识形态工作者需要进一步了解人工智能的基本原理为何,其开展意识形态工作的优势和缺陷何在,怎样更好地将人工智能应用于意识形态工作中,意识形态工作者如何与人工智能展开深化合作,未来人工智能的发展前景又将如何,等等。

当然,人工智能目前还处于发展的起步阶段,在未来必将迎来更大的变革。因此,意识形态工作者也需要不断革新对人工智能的认知。更为重要的是,意识形态工作者要在了解人工智能的基础上,把人工智能融入意识形态工作视为必然的趋势,认同人工智能在意识形态工作中所能发挥出的重要价值。实际上,以美国为代表的发达国家早已在人工智能与意识形态安全领域进行了战略布局,如从国家层面对研发科学技术的公司进行资金资助,从而为国家网络空间安全体系的长远建设提供技术支撑。同样,我们的相关国家职能部门也要专注于意识形态工作与人工智能联结的顶层设计,使人工智能最大化推进意识形态工作的持续发展。(范洁:南阳理工学院教授)

参考文献:

[1]马克思恩格斯选集:第1卷[m].北京:人民出版社,2012.

[2][法]阿尔都塞.哲学与政治:阿尔都塞读本[m],陈越,编.长春:吉林人民出版社,2003.

[3]柳海涛.人工智能能取代人类意识吗[n].社会科学报,2017-07-13.

[4][美]凯斯r.桑斯坦.信息乌托邦:众人如何生产知识[m].毕竞悦,译.北京:法律出版社,2008.

[5]黄楚新.破除"信息茧房",不以流量论英雄重塑新媒体时代的吸引法则[j].人民论坛,2018(17).

[6]黄晓勇.认知智能媒介的阶段性风险[n].中国社会科学报,2019-09-19.

[7][美]卢克多梅尔.人工智能[m].赛迪研究院专家组,译.北京:中信出版社,2016.

[8]白红义.当新闻业遇上人工智能:一个"劳动-知识-权威"的分析框架[j].中国出版,2018(19).

[9]吴世文.新闻从业者与人工智能"共生共长"机制探究--基于关系主义视角[j].中国出版,2018(19).

[10]罗甜田,王琴.丰富文化现明与叙述形式--对大众文化服务意识形态创新的思考[j].社会科学研究,2015(2).

[11]taina bucher.if...then: algorithmic power and politics[m].new york:oxford university press,2018.

[12]rahul bhargava.the algorithms aren't biased,we are[eb/ol].[2018-01-03].

https://datatherapy.org/2018/01/03/the-algorithms-arent-biased-we-are.

[13]汝绪华.算法政治:风险、发生逻辑与治理[j].厦门大学学报(哲学社会科学版),2018(6).

[14][美]埃里克布莱恩约弗森,安德鲁麦卡菲.第二次机器革命[m],蒋永军,译.北京:中信出版社,2014.

[15][美]刘易斯芒福德.技术与文明[m].陈允明,王克仁,李华山,译.李伟格,石光,校.北京:中国工业出版社,2009.

(文章选自《南通大学学报(社会科学版)》2020年5期)