欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

2016年人工智能的那些不完美

程序员文章站 2022-05-15 21:07:19
自动驾驶汽车、围棋人机大战、描绘机器人自我意识的美剧《西部世界》大热……2016年,人工智能及其相关领域受到产业界、学术界乃至全社会的热议。与此同时,人们对人工智能的担忧也...

自动驾驶汽车、围棋人机大战、描绘机器人自我意识的美剧《西部世界》大热……2016年,人工智能及其相关领域受到产业界、学术界乃至全社会的热议。与此同时,人们对人工智能的担忧也从未褪去:人工智能会在什么时间、以什么方式出问题?

临近年终,多名人工智能专家分析了2016年人工智能典型“失败”案例,认为这些错误集中出现在人工智能系统的机器学习和任务执行阶段。

“智能”歧视:都是人的错吗

多位人工智能专家认为,种族主义和种族歧视是目前人工智能系统存在的主要问题,这可能和系统的研发设计者本身的种族有关。

2016年,美国多地法庭开始使用人工智能系统预测一名罪犯再次犯罪的几率,作为法官给予罪犯缓刑等的依据。然而,媒体对佛罗里达州法庭使用的一种名为“少数派报告”预测系统进行了调查,发现黑人被系统预测会再次犯罪的几率比其他族裔高出45%,其中黑人被预测再次暴力犯罪的几率比其他族裔高出77%。数据显示,这一人工智能系统的准确率只有20%。媒体评论说,所谓犯罪预测系统唯一能判断的仅是受调查对象的种族而已。

2016年,美国多家公司联合推出了“世界首届人工智能选美大赛”,参赛者在网站上上传照片,由人工智能算法“精确”评估参赛者的美。然而,这场比赛的获奖者都是白人。美国路易斯维尔大学网络安全实验室主任扬波利斯基指出,很明显这一人工智能的学习训练样本不够,美人被限制在固定的模式中。

为了开拓年轻人的市场,微软公司今年春季在社交网络推特上推出了人工智能聊天机器人Tay。然而上线不到一天,用网友的话说,Tay就成为了一个“热爱希特勒、侮辱女性的妖怪”,微软随即将Tay紧急下线。

任天堂公司的“口袋妖怪”游戏今年7月发布后风靡全球。玩家很快发现,黑人社区很少有小精灵可抓。据《今日美国》报道,在洛杉矶地区,主要白人社区平均有55个“精灵驿站”,黑人社区平均不到19个;在底特律、迈阿密和芝加哥也出现类似情况,黑人玩家在自家门口很难参与游戏。游戏开发人员承认,这款增强现实智能游戏基于一个以白人玩家为主的地图系统,开发人员没有在黑人社区上多花时间。

输棋、伤人:伦理研究要先行

在3月的围棋人机大战中,人工智能系统阿尔法围棋以4比1战胜韩国棋手李世石。澳大利亚新南威尔士大学人工智能教授沃尔什表示,阿尔法围棋输了一局,说明李世石还是发现了这个系统使用的“蒙特卡洛搜索树”中的漏洞,这一局可以看作是2016年人工智能的一次失败,人工智能还不完美。扬波利斯基则认为,李世石胜出的一局还是在正常操作的范围内。

5月,一辆开启自动驾驶模式的特斯拉在美国佛罗里达州与一辆拖车相撞,导致司机死亡。事故发生后,特斯拉公司发布了自动驾驶软件的重要更新,公司首席执行官马斯克称,更新可以防止类似事故的发生。

7月,位于硅谷地区的斯坦福购物中心,一位母亲称,购物中心重约135公斤的“K5安保机器人”撞倒了自己16个月的孩子,并从孩子的脚上压了过去。

而在11月举行的中国深圳“中国国际高新技术成果交易会”上,一名网友在微信上发图并配文称,亲眼看到隔壁展台进化者小胖机器人没人操纵,自己突然跑起来,把玻璃墙给撞倒了,砸伤旁边一路人。图片显示,现场满地玻璃,一位受伤观众被担架抬走。这款机器人的生产方称,这起事故是人为操作失误所致,控制人员误将前进键当作后退键。但也有专家指出,不能用“油门当刹车”的比喻来看待服务机器人问题。尽管是偶发事件,但其安全隐患绝不可掉以轻心。

扬波利斯基等人认为,这些案例说明保持机器学习数据的多样性是防止人工智能产生“偏见”的关键,相关伦理研究更应走在技术研究的前面。