马斯克称AI是人类文明根本威胁:可能引起战争
特斯拉和SpaceX创始人兼CEO伊隆·马斯克。东方IC资料
要把人类送上火星的“硅谷钢铁侠”,却害怕人工智能崛起。
美国当地时间7月15日,特斯拉和SpaceX创始人兼CEO伊隆·马斯克(Elon Musk)在罗德岛一次全国性州长会议上表示,他们应该警惕人工智能(Artificial Intelligence, AI)崛起的潜在风险,并建立监管机构来引导这项强大技术的发展。
马斯克的这些观点是他在参加全国州长协会(National Governors Association)会议时通过演讲阐述的。他列举了几个AI威胁的最糟糕情况——全人类的工作可能受到威胁,AI还可能引起战争。“它是人类文明面临的最大风险。”马斯克说。
马斯克经常在公共场合表示自己对AI的发展感到担忧,他还协助成立了非盈利研究机构OpenAI,致力于此项技术的安全研发。
《华尔街日报》消息称,马斯克在会议上向与会的州长们提议建立监管机构,来深入了解正飞速发展的AI技术研发进行,随后再出台具体的监管规定。
“目前,*甚至都不了解情况。”马斯克表示,“人们一旦了解了,就会非常害怕,他们也应该害怕。”
“AI是一个极少数的特例,需要主动进行监管,而不只是应对。因为到我们要应对AI的时候,那就太晚了。”马斯克强调。他接着将AI和传统监管目标做了对比,称“AI对于人类文明的存在来说是根本的威胁”,“车祸、飞机失事、假药和坏掉的实物等都不能相提并论。”
这对于马斯克这样一个*派的先行者来说是非常强硬的表态。他自己也表示:“我当然是反对过度监管的,但是在AI方面,我们一定要立刻着手。”
马斯克的担忧一方面来自社会稳定和工作流失层面,但更深层次的担忧在于,他们可能会对人类造成伤害。“他们能够通过假新闻、假邮件账号和假的新闻稿形式,来操纵信息。”马斯克认为,“笔的力量远大于剑”。
他还举了一个假设的例子,即AI可以通过黑客手段或假消息来增加国家对国防工业的投资,从而触发战争。
马斯克还强调,*全方位的监管至关重要,原因是企业目前经受着发展高尖端AI技术的压力,甚至开始不管市常这就是监管者应该出面的时候,应该喊停,并确认技术是安全的。
但AI技术的支持者认为,基于这项技术目前的水平,马斯克的这种担忧为时过早。
亚利桑那州州长、共和党人Doug Ducey多年来支持减少*规章制度,他就对马斯克的建议提出了质疑。Ducey表示,他不确定政策制定者除了放缓行业发展的速度,还能做什么。“我对你在搞清楚我们在做什么之前,就出台规章制度的建议感到震惊。”Ducey对马斯克说。
“当然,这些做AI的公司(他们中的大多数,我的公司除外)会*称这将阻断创新,”马斯克补充道,但他不认为这就会导致这些公司离开美国。
下一篇: 小球落地