欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

成天担心机器人统治社会,其实机器人更害怕人类

程序员文章站 2022-09-20 13:00:43
似乎每个月都会有一些关于人工智能(AI)如何偷走我们的工作、伤我们的心,或者直接把我们所有人都杀光的新闻标题或电影出现。这不仅仅是一个勒德分子(一个害怕或者厌恶技术的人,尤其是威胁现有工作的新技术的形...

成天担心机器人统治社会,其实机器人更害怕人类

似乎每个月都会有一些关于人工智能(AI)如何偷走我们的工作、伤我们的心,或者直接把我们所有人都杀光的新闻标题或电影出现。

这不仅仅是一个勒德分子(一个害怕或者厌恶技术的人,尤其是威胁现有工作的新技术的形式。)的问题。和埃隆·马斯克一样,一个技术爱好者经常会援引对人工智能的恐惧和厌恶,把它比作一个邪恶的恶魔,必须通过国家的力量来驱散它。随着所有这些反对AI偏见的出现,*主义者和技术专家们将站在那些想要压制这些技术的立法者和学者面前。

人们常常对新生事物产生畏惧。无论是织布机还是智能手机的兴起,人们从未停止过担心。过去,反科技的争论已经被得到了很好的解决。约瑟夫·熊彼特(Joseph Schumpeter)等经济学家指出,创造的行为必然包括破坏旧的、通常过时的、低效的、生活和生产的方法。但是这种破坏带来了新的生活:新的机会、商品和服务,以及新的生活方式,没有这些我们将无法生活。从经济上来说,一项颠覆性技术带来的工作的数量和质量总是会超过那些被小心翼翼地保护着的。在文化上,社会经受住了许多人声称的会导致社会衰退和灾难的暴风雨。

但是一提到人工智能,似乎有些不同。技术变革的步伐似乎太快了。智能机器的想法似乎与我们太相似,无法给人以安慰,而对机器替代人类的原始恐惧也变得越来越严重。不幸的是,这些担忧已经转移到学术和法律层面的技术上,就像亚当·塞勒(Adam Thierer)、雷蒙德·罗素(Raymond Russell)的新莫卡特斯中心(Mercatus Center)的研究,以及你真正的讨论。一不小心我们偏执的想象中最糟糕的行为可能会导致法规将我们从健康、制造和交通的惊人发展中排除出去。

首先,很重要的一点是要弄清楚这条“线”到底是什么。科幻小说中关于杀手机器人和非人道的未来的故事就是这种虚构的东西。人工智能技术的实现也会变得更加平凡,更加不切实际。它们将是平凡的,因为当最有效的时候,它们将会如此无缝地融入我们的环境,几乎是无法察觉的。但它们将会非常棒,因为它们有可能拯救数百万人的生命,节省数十亿美元,让我们的生活更轻松、更舒适。

考虑一下制造业。许多人担心机器人技术和人工智能会给传统工作带来风险。但即使是最令人担忧的分析自动化对工作的影响的研究发现,绝大多数的工人也会很好,那些受影响的人可能会找到更好的工作,而自动化会提高他们的工作质量。但与此同时,根据麦肯锡(McKinsey)和公司的数据,人工智能对制造技术的改进,可能会在2025年实现约1.4万亿美元的价值。这个巨大的数字也代表着最不富裕的一些人的真正储蓄,而且很可能会加剧贫富差距。

或者考虑一下医疗保剑医生们已经使用了人工智能增强技术来指导他们进行精确的手术,帮助他们更有效地诊断疾病,甚至帮助病人在很长一段时间内跟踪健康情况。这些技术可能确实挽救了生命,在接下来的10年里,他们预计将在我们失控的医疗保健行业中大量减少成本,可达数千亿美元。

防止人工智能技术为数百万人生活带来真正的风险,这不是不切实际的。这就像每年通过阻止无人驾驶汽车的发展,允许成千上万的可预防的高速公路死亡一样简单。

这些只是我们在报告中强调的几个例子。许多研究技术问题的学者认为这并没有想象中乐观。他们认为人工智能技术的风险——无论是劳动力转移、人身安全,还是完全不同的影响和歧视——都是“先停下来,再问问题”的方法。他们提出的法规将有效地冷却人工智能研究;事实上,一些主张这些立场的人明确认识到这是他们的目标。

有趣的是,对于传统的关于自动化的担忧,即劳动力市场的*和收入效应,正日益被存在风险和社会歧视的新担忧所超越。在metanarUNK结构的方面,是对“超级智能”和“硬”人工智能的广泛关注这一观点是马斯克在2014年出版的《超级智能》一书中所采用的。然而,正如我们在论文中所讨论的那样,在科学界存在着许多分歧,即这些结果在物理上是否可行。然而,正如我们在论文中所讨论的那样,科学界和物理界上对此存在着很大的分歧。嘿,如果情况更糟,我们总是可以把机器的电源拔掉。

对于大多数读者来说,更熟悉的是当天社会政治关注的担忧。人工智能很大一部分对抗者都来自于那些不害怕社会末日的批评人士,但这种算法和机器学习软件可以进一步巩固社会差距。例如,提供对某一特定受保护群体进行加权的输出的算法会立即被怀疑。人们担心的是,一个被“黑盒子”统治的社会(使用一个由评论家Frank?Pasquale创造的术语)将会以难以察觉的方式给社会分层,从而将进一步加剧社会的两极分化。

当然,硅谷是一个少见的*的地方,所以你可能会认为,批评者会认为他们是在人工智能技术中积极对抗偏见的天然盟友。事实并非如此。人工智能的批评者认为,我们需要“及时并提前立法”,以领先于创新者,并迫使他们去做*所说的事情。他们呼吁建立大量新的*办公室和机构来控制人工智能技术,从一个联邦人工智能机构,到一个“联邦机器人委员会”,到一个“国家算法技术安全管理”。毫无疑问,随着继续集成人工智能技术的发展,我们周围的一切都与软件密不可分,这样一个联邦人工智能机构的创建最终可能会控制住你周围的一切。

有些人想通过法院来暗中监管。例如,法学教授Danielle Keats Citron呼吁通过一项她称之为“技术正当程序”的法律原则,对算法和人工智能技术进行“精心设计的质量控制的审查模式”。白宫在2014年发布的一份关于隐私和大数据的报告,似乎是在对一项更严格的行政调查过程做出回应,呼吁监管机构对算法进行“嗅探”,以“对受保护的阶层产生歧视性影响”。当然,很少有创新者愿意公开打破法律,不公平地影响某些群体,但这种联邦调查,如果不是精心组织,就会冒着变得过于*的政治迫害的风险。

这些监管建议与他们寻求解决的少数问题相比,产生了更多的问题。如上所述,专横的监管制度将使我们丧失数万亿美元的经济增长和成本,大幅改善生活,拯救世界各地数百万人的生活。但即便是一个更宽松的监管*或责任结构,也可能让人工智能的发展降温,而这也会产生类似的效果。

事实上,还有更好的方法来解决这些问题。我们的机器变得越来越智能。难道我们的规章制度不也应该如此吗?过去的命令与控制模式是行不通的,尤其是因为监管者需要作出明智决定的许多信息,对于那些在这些技术上工作的开发人员(特别是在机器学习方面)并不明显。

那么,政策制定者应该学习什么呢?谦逊,教育,与学者、创新者和工业合作。大多数的担忧都将通过竞争和认证的市场来解决。在那些大问题确实存在的地方——比如人工智能技术应用于执法技术,或者开发“智能武器”——或许更多的预防措施是有根据的。但在绝大多数情况下,交流和正常的责任工具以及法律补救措施将足以完成这项工作。

人工智能技术给我们带来的好处将是巨大的。因此我们必须确保人类不去扼杀机器人。