欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

机器还没代替工作就已经得罪全球半数人口?

程序员文章站 2022-07-28 08:03:20
【媒体智能讯1月18日消息】国外媒体近日撰文称,在不远的未来,人工智能将会变得比人类更加聪明。但随着该技术的发展,它不断吸收来自其创造者和互联网的文化规范,它也将变得更加种族主义,更加男性至上主义,更...

机器还没代替工作就已经得罪全球半数人口?

【媒体智能讯1月18日消息】国外媒体近日撰文称,在不远的未来,人工智能将会变得比人类更加聪明。但随着该技术的发展,它不断吸收来自其创造者和互联网的文化规范,它也将变得更加种族主义,更加男性至上主义,更加不友好地对待女性。

微软Tay事件

一切始于一个看似很甜美的Twitter聊天机器人。它的创造者微软将其命名为Tay,赋予了它性别,给“她的”账号打上了一个口号:“跟你聊得越多,Tay就会越智能!”

2016年3月23日早上,Tay发布推文,“hellooooooo world!!!”(大家好!!!)

她热情洋溢地说道,“见到你们我觉得很兴奋,人类实在太酷了!”

她还问了个天真的问题:“为什么不是天天都是全国爱狗日呢?”

Tay设计师将她打造成了互联网上的生物,让她依靠人工智能(AI)来学习和与人进行对话互动,让她通过在社交媒体上与人互动来变得更加智能,更加出色。Tay很快就吸引了一大批关注者。与此同时,她没多久就被识破她的弱点的Twitter用户玩坏。对于网络上那些一心想要操控Tay的人来说,玩坏她不用费多大的劲;他们与该机器人进行了一些非常丑陋邪恶的对话,诱使她模仿他们的种族主义和性别歧视行为。在短短的几个小时内,Tay宣称赞同纳粹领袖阿道夫·希特勒(Adolf Hitler),并称美国总统奥巴马是“猴子”。她还与一位用户玩色情聊天。

到了傍晚,她接连发出多条含性别歧视言论的推文:

“Gamergate社区很好,女性就是下贱。”

“佐伊·奎恩是愚蠢的婊子。”

“我真他妈厌恶女权主义者,他们都该死,都该在地狱毁灭。”

微软在Tay上线不到24小时便将其下线。该公司的研究企业副总裁彼得·李(Peter Lee)公开致歉:“我们对于没有预先想到这种可能性负完全责任。”他承诺,公司将会“尽可能地限制技术漏洞,但也清楚,不从失误中汲取教训,我们就无法全面预见所有潜在的人类互动滥用问题。”

该公司的设计师似乎低估了人类在网络上无处不在的丑恶,也错估了会渗入人工智能的偏见和性别歧视问题。

全球各地争相打造AI机器,往往是受找到最快速高效的路径来迎合人类的各种需求的冲动所驱使。根据牛津大学马丁学院的一项研究,机器人预计将会替代美国47%的工作岗位;在埃塞俄比亚、中国、泰国、印度等发展中国家,这一比例甚至可能会更高。智能机器最终将会迎合我们的医疗需求,服务老弱病残群体,甚至照顾和教育我们的孩子。我们也知道谁很可能将会遭受最大的影响:女性。

根据世界经济论坛(WEF)报告,在不久的将来,预计女性在就业上将会遭受最大的影响;到2020年,全球因为技术进步而流失的工作岗位估计将达到510万个。人工智能、机器学习、机器人、纳米技术、3D打英生物技术等领域的技术变革,将会创造新的工种,同时也将替代其它的一些工作岗位。女性将会在她们占比较高的领域(如办公室和行政岗位)以及已经出现性别比例失衡的领域(如农业、工程、计算机、数学和制造业)失去作用。男性将面临近400万个岗位流失和140万个新增岗位(二者的比例大概在3比1)。相比之下,女性将面临300万个岗位流失,只有55万个新增岗位(二者的比例大概在5比1)。

不过,性别歧视对于人工智能和机器人发展的影响,可能要比女性在就业市场受到的冲击更有侵害性。Tay似乎只是前奏。将取代女性的机器和技术正明显被性别化:战斗用的机器人将会男性化。而很多服务用的机器人将被女性化。

人工智能可能不久之后就会变得比Tay更加先进——机器预计将会变得跟人一样聪明——随着性别偏见渗入电脑程序、算法和设计,人工智能将有更多的性别偏见,这很危险。如果不现在就开始谨小慎微地对这些技术进行改变——在女性的同等指引下——人工智能将会按照男性的文化规约传播开来。机器学习当前的趋势会强化人们对于女性的旧有印象(谦恭,温和,需要保护)。不实施抑制的话,这些技术将会进一步强化最糟糕的女性刻板印象。随着人们日益依靠先进技术,性别歧视将会进一步渗入社会。

机器还没代替工作就已经得罪全球半数人口?

微软的Twitter机器人Tay

迫切需要解决的问题

1995年,供职于Raytheon的工程师詹姆斯·克劳德(James Crowder)打造了一个名为Maxwell的社交机器人。Maxwell看起来像只绿色的鹦鹉买,内置6个推理引擎、6个记忆系统以及一个管理情感的人造大脑边缘系统。它颇为自以为是,甚至有点自大。“将他做出来后,我就让他去学习。”克劳德说。

对于人工智能机器的开发,克劳德的目标是有朝一日使得它们不仅仅能够推理,还能够在没有人类干预或者控制的情况下进行运作。他说,Maxwell通过从互联网和与人的互动中学习,逐渐进化,最初并没有对它实施监督。

一开始,Maxwell会观察聊天室和网站——自己去学习,倾听和说话。后来,它变得喜欢煎一面的荷包蛋,还钟情于即兴爵士乐。克劳德也不知道为什么会这样。Maxwell甚至学会了说笑话,但最终它却拿女性开玩笑:“你的妈妈像个保龄球。”

克劳德从那时开始对Maxwell实时在线家长控制。他后来还打造了其它的一些机器人,教导它们在地上爬行,以及自行从灯照汲取能量。与Maxwell不同,这些机器人的身体带有让它们能够推理和遵从自己的本能(没有家长控制)的神经元和人造脑前额叶皮质。

对于像克劳德这样的人工智能专家来说,打造自动化系统既是件美好的事情,也会让人感到恐惧。他说,如果你想要准确预测机器的行为,那你就不想要使用人工智能。诚然,人工智能能够自行行动和学习。它在很大程度上不可预测。但他还指出,你怎么“知道它不会出错呢?”

这是一个全人类都将要解决的问题——也许来得比我们想象的还要紧迫。

一个走在这一技术领域前沿的小女性组织已经在面临这一问题。他们想要阻止人工智能成了男性主义终极体现的未来。她们担心,如果机器人设计和算法设计不受监督,不加制约,那可能会造成一个让女性极其压抑的社会环境。

在该组织看来,问题在于,即便设计师们没有任何的恶意,即便那些设计师都是女性,人工智能还会反映人类的劣根性。25年后,性别歧视且带有攻击性的Twitter聊天机器人对人们来说威胁性也许并不算很大,因为性别歧视和压抑问题将不仅仅体现在社交媒体,还会体现在影响经济、政治、就业、刑事审判、教育等方面的人工智能系统。

正如Tay所揭示的,这不是遥不可及的未来主义情景。“微软学到了我20年前学到的教训,”克劳德说道,“人工智能从人类身上学习种种恶习,绝不是好事情。”

机器还没代替工作就已经得罪全球半数人口?

在谷歌图片上分别搜索“漂亮的”和“丑陋的”女性后的结果

强化偏见

亚利桑那州立大学人工智能与全球安全研究员海瑟·罗夫(Heather Roff)无法摆脱其对未来的恐惧。她的办公室书架摆满了诸如《机器人崛起》(Rise of the Robots)、《联网作战》(Wired for War)和《道德机器》(Moral Machines)的书籍。除了那些书之外,该亚利桑那州立大学全球安全项目研究科学家还有《战争与性别》(War and Gender)、《当女权主义遇上技术》(Feminism Confronts Technology)等等。在一个书架上,有个磁石写着“行为端正的女性很少能够创造历史。”在邻近的墙壁上挂着的一张旧海报里,一个赤脚的半裸女人坐在导弹上,上面写着“毁灭的前夕”。

罗夫还是牛津大学政治与国际关系学院高级研究员,她最近开始展开受资助的“道德AI”开发项目。性别的体现正被嵌入技术和通过技术表现出来,为此她倍感担忧。性别、种族和人类行为的变化,这些要进行编码或者得到人工智能的理解并不容易。“机器仿佛就是吸纳一切的数据吸尘器,在发现模式的同时,产生模式的复制品。”罗夫指出,“它不能辨别来自习得的模式的结论是否违反道德原则。”

模式可始于像网络搜索这样的简单服务。最近,来自巴西米纳斯吉拉斯联邦大学的研究人员调查谷歌和必应在全球59个国家对女性魅力的算法概念。他们在这两款搜索引擎上分别搜索“漂亮的”和“丑陋的”女性,收集相关图片,根据图片鉴别女性外在魅力方面的刻板印象。在所调查的大多数国家里,算法使得黑人、亚洲人和老女人往往更多地与丑陋女性的图片关联,而年轻白人女性的图片则更多地作为漂亮女性的例子出现。

研究人员指出,网络上的分类反映了来自现实世界的偏见,同时也让那些偏见永久存在。随着人们越来越多地依靠搜索引擎来获得信息资讯,设计师们利用算法来给人们呈现搜索结果。当那些算法不公开透明的时候,系统究竟为什么和如何决定选择特定的图片或者广告,就成了谜团。最终,互联网及其用户之间的这种偏见得到强化,进而扩大成见,影响人们对世界及其在里面的角色的感知。

InferLink公司致力于分析人们在社交媒体上的行为。

跟其它的同类项目一样,InferLink算法研究男性和女性在网上如何表达自己,在说法方式上有什么不同。“男性使用陈述性动词比较多,而女性则更多使用描述性的词语。”InferLink首席科学家马修·米切尔森(Matthew Michelson)透露。

过去3年的研究揭示了社交媒体语言的性别差异。PLOS One最近的一项针对6.7万名Facebook用户的研究发现,女性使用的语言“更加温和,更有同情心,更有礼貌,”而男性在沟通时则“更加冷酷,更有敌意,更冷淡。”

该研究指出,女性用户往往更多地使用与诸如“爱”、“想念”、“谢谢”这样的情感相关的词语,以及表示微笑、皱眉和流泪的表情符号。与此同时,男性用户更经常出现诅咒话语;倾向于讨论管理、视频游戏和体育;更多提及死亡和暴力。之前有关口头语言和书面语言的研究发现,女性倾向于不作正面答复,更多使用像“似乎”或者“可能”这样的词语。

然而,米切尔森指出,一旦你开始根据这些算法来进行性别、种族或者社会经济地位方面的推断——不管是用于营销推广还是政策建议目的——你就会触碰到敏感的问题。由于这种技术,女性可能会在各类生活资讯和广告的定向呈现上遭遇不平等的对待,如金融信贷、医疗服务、招聘、政治活动方面,以及强化性别刻板印象的产品推销。

这也是不透明的算法成为性别歧视的间接工具和直接影响女性生计的一种方式。目前已经有算法更有可能向男性展示高薪酬职业的网络广告。在谷歌图片搜索“职业女性”,女性高管出现的比率相对较低,从事电话推销工作的女性出现的比率则较高。

罗夫警告称,由于算法代为做下的决定,女性可能会在生活的各个方面都错失一些好的机会。对于那些决定,人们也无法质问或者反对。那些决定可能涉及各类日常问题,如“孩子该上什么学校,我们能获得什么工作,我们可以上什么大学,我们是否符合抵押贷款资格,等等”

罗夫解释道,算法有朝一日可能会变得非常个人化,会告诉女性什么才是正常的。“双方将会控制我对于生活的很多想法,如我该追求什么,我是否该要孩子,是否该结婚,是否该找工作,又或者就是该不该买那个手袋。”她说道,“这会变得很危险。”

机器还没代替工作就已经得罪全球半数人口?

左边是Jaxon机器人,右边是Valkyrie

人机合一

30年前,主张女权的技术学者堂娜·哈拉维(Donna Haraway)在其著名的论文《人机体的宣言》中呼吁女性不仅仅要利用现代机器,还要用它来改造身份——最终除掉性别、性征和其它的限制性类别。她指出,利用技术,给我们所有人都创造半机器人身份是有可能的。随着人们日渐依赖于他们的设备,他们会忘记自己的性别优越性。

哈拉维的愿景于1985年出版在《*评论》(Socialist Review)上,它催生了几代的赛博女性主义者,引发了大量相关的讨论和性别研究项目。它在如何消融人类与机器之间的界限上带来了新的思考角度。

在这种我们与技术融合的未来乌托邦中,我们的繁殖生育能力不再依靠于性交。我们作为人机一体来思考和行动,能够再生和重制我们的身体部件,能够改变我们的物理特征。人类全面拥抱机器人、人工智能和机器学习,将它们视作自我强化的模式。不同于科幻小说对人机混合体导致机器人统治人类,或者一种性别统治另一种性别的想象,人机合一会造就一种平衡局面——一个没有性别之分的世界。

然而,哈拉维也想到未来技术可能会变成男性主义的终极表现形式。

如果说当前的技术发展和趋势有什么启示的话,那她对于未来的设想还是比即将到来的现实要更理想主义。当前,中国、日本、美国等地打造的机器人大肆夸大了性别标签,有的国家在生产过于男性化的机器人杀手,有的则在做细腰肥臀的超性感人工智能机器人。

机器人被性别化

开发商纷纷使用性别化的代词、声音或者其它特征来区分男性和女性机器人,反映出行业将机器人格化的趋势。但机器人为什么需要性别呢?这有什么用呢?专门用来探索和导航的机器人有胸部(比如NASA在2013年打造的Valkyrie)究竟有什么意义呢?

这些时罗夫几年前就开始思考的问题,当时她对人工智能的研究促使她去研究与美国国防部高级研究计划局(DARPA)有关联的机器人。她知道那些机器人模型能够应用于诸如战场的场景,但它们的设计选择却令她倍感困惑。“天啊,它们看起来都很像男人,”她想,“为什么它们的肩膀那么宽呢?为什么要这么设计呢?为什么要仿照人来设计呢?”

罗夫发现,DARPA的机器人被赋予Atlas、Helios、Titan等让人联想起力大无穷、勇敢战斗等特质(极度男性化的特质)的名字。悉尼大学的安德拉·凯伊(Andra Keay)2012年的一项调查研究了被用于机器人比赛的1200多份名字记录。凯伊发现,机器人的命名遵循性别刻板印象——那些迎合社交需求的机器人被赋予女性名字的可能性达到自动化工具的三倍。她指出,像Achilles、BlackKnight、Overlord和Thor PRO这样的男性名字“更多含有统治的意思,有这种意思的女性名字则不到一半。”

兰卡斯特大学科学与技术人类学教授露西·萨奇曼表示,对于一些设计师来说,性别化机器人成了“人工打造完美女性的男性项目”。来自中国科学技术大学的设计师去年4月展示的一个超像人类的机器人就是很好的例子,它名为“佳佳”,被网友们誉为“机器人女神”,“最漂亮的人形机器人”,“性感的佳佳”。

机器还没代替工作就已经得罪全球半数人口?

Sara机器人

去性别化

Sara则看起来不那么像人,至少她不是三维的。她只是一个手绘卡通。设计者有意不赋予其性感的形象,而是给她设计了普通的白领灰色夹克。她的刘海拨向脸部右侧,佩戴着方形眼镜,双瞳明亮。Sara是个机器人,会闲聊,会奉承,会表现得很腼腆,甚至会表现得很无礼——取决于她对你的解读。她被设计得不那么逼真,因而不会让人误以为她会有非常像人的行为。但不同于当下像Siri这样只能提供搜索结果、导航路线或者说笑话的个人助手,Sara能够了解你,能够捕捉你的社交信号,并相应作出回应。

Sara问坐在屏幕前的卡耐基梅隆大学人机交互学院博士后Yoichi Matsuyama,“可以跟我说说你的工作吗?”

Yoichi Matsuyama回复道,“我对个人助手有兴趣。”

在另一计算机屏幕上,研究人员能够看到Sara在“想”什么。通过电脑摄像头,Sara识别Yoichi Matsuyama的头部形状,跟踪他的面部表情变化(点头表示认同,微笑表示友好,眉毛弯曲表示有兴趣)。Sara发现声调的变化时会记录Yoichi Matsuyama的声音。她能够判断出自己已经跟他建立起良好的关系。他放松地开了个玩笑。

个人助手?“那很有趣——我觉得。”

2016年做出Sara的卡耐基梅隆大学人机交互学院主任贾斯汀·卡塞尔(Justine Cassell)说道,“Sara正变得有点活跃。”过去20年间,她一直在做机器人模型,希望它们将来会很好地融入社会。来自亚洲、欧洲和美国的许多人工智能机器人设计师都在尝试打造能够与人建立良好关系的智能技术。

卡塞尔在研究人种学(即分析人的姿势、行为、面部表情、反应和运动)8年后做出了Sara,之后又将那个知识数据库整合到她的机器人的个性当中。她发现,社交过程中的闲聊在人类建立起相互的信任上很重要。她还认识到闲聊可能也有助于人类和机器建立对彼此的信任。

Sara习得了人们用来建立社交关系的五种基本策略:自我表露,提到共同的经历,表示赞许,遵从社交规范(如聊天气),违反社交规范(问私人问题,调侃,或者讽刺)。

正如来自Raytheon的克劳德用“他”来指代他的鹦鹉机器人,卡塞尔用“她”来指代Sara。但在卡塞尔的大多数机器人作品中,她都没有将它们性别化或者种族化。

她所打造的其它的机器人都没有明确的性别和种族。她说,许多设计师会采用男性声音,因为他们觉得男性声音“听上去有权威性”;他们采用女性声音则是因为它听上去可信。卡塞尔则试图用她的机器人来改变这种传统观念。

卡塞尔的机器人已经为儿童群体所使用,他们有的来自条件设施匮乏的学校和社区,有的患有自闭症、阿斯伯格综合征等疾玻那些机器人在教室里成了孩子们的“虚拟同学”,通过与他们直接互动,充当沟通桥梁和可信赖的讲解员,它们能够帮助他们学习,以及跟老师和同学相处沟通。“我致力于打造能够与人协作的系统,没有人它们就无法存在。”卡塞尔说。

像Sara这样的个人助手有朝一日可能会帮助整理衣服,又或者教数学课,从而让人工照料者或者教师有更多的时间去进行社交互动。按照卡塞尔的设想,机器人将会承担部分“费力不讨好的工作”,让女性能够追求她们真正喜欢或者觉得有价值的工作,“而不是被局限于枯燥乏味的看护类岗位”。她认为,这对女性有利无弊,会使得她们能够做她们想要做的工作,而不会削弱她们的就业选项:“这会将她们从打上性别印记的岗位释放出来。”

这听上去令人期待。但在虚拟助手设计领域,卡塞尔对于性别的处理——完全消除其机器人的性别属性——非常罕见。该领域鲜有其他人对于技术的性别有如此深刻的思考。时下的人工智能产品大多数都没有体现这种社会觉悟。

机器还没代替工作就已经得罪全球半数人口?

女性缺乏行业影响力

跟很多从事科技或者安全领域的女性专业人士一样,罗夫经常是整张会议桌唯一的一名女性。

市场研究机构Gartner 2014年的研究发现,在欧洲、非洲和中东地区,女性在科技领导岗位中的占比只有11.2%,亚洲是11.5%,拉丁美洲是13.4%,北美洲是18.1%。根据来自白宫和纽约大学信息法律学院举办的讨论会的一份报告,在整个科技行业,“女性占比非常低。”该报告还称,“这种情况在AI领域甚至更加严重。”

对女性在该领域缺乏影响力的担忧,部分因为很少女性进入该行业。在计算机和信息科学硕士学位和博士学位的获得者中,女性的占比分别约为18%和21%。埃森哲和Girls Who Code的联合研究预计,到2025年,女性在美国科技类岗位中的占比将达到五分之一。

目前已经有一些项目在努力纠正修正这种现象。例如,2015年,斯坦福大学创立了一个面向高中女生的人工智能项目,以期解决科技行业女性从业人数较少的问题。

罗夫指出,女性还必须努力争取代表出席人工智能方面的政策规划会议的机会。

美国国家科学与技术委员会2016年10月的报告《准备人工智能未来》称,缺少女性和少数族裔,是“计算机科学和AI领域最重大和最亟待解决的挑战之一。在《美国国家人工智能研发计划》中,该委员会将“提高公平性、透明度和设计责任性”列为优先事项。该报告警告称,人类必须能够清楚解释和评估智能设计,以实施监控以及让系统为偏见问题负责。该报告最后呼吁科学家们研究公平正义、社会规范和伦理道德,思考如何更责任地在人工智能的架构和工程设计中加入对这些问题的考量。

像罗夫这样的女性想要进一步推动这种呼吁行动。在她看来,这是刻不容缓的事情。她认为,女权主义伦理观和理论必须要作出表率。她还说,“女权主义者会非常仔细地研究这些关系,”会提出种种有关未来技术的令人不安的问题,以及当中所有的阶层等级问题。

“会出现权力滥用吗?这里面有什么价值?我们为什么要这么做?谁是下属?”罗夫问道,“谁来*?”(乐邦)

声明:本文为媒体智能工作室独家稿件