人工智能时代 人机相处的前提是建立信任机制?
科技讯12月13日消息 据福布斯报道,“人工智能”一词一直被用来指代试图模仿或复制人类思想的系统。这并非对人工智能实际科学行为的准确描述,而且该词狭义的解释容易给人们在人类智能和人工智能之间带来误解。
这就是为什么IBM使用另外的词来描述他们在这一领域的工作的原因。IBM认为“认知计算”(cognitive computing)或“增强智能”(augmented intelligence)在描述上更精确。这些系统的存在是为了增强人类的能力,而不是取而代之。
并不存在什么商业或社会命令促使人们打造人工智能。但总有一个工具可以增强我们的智慧,帮助人们更好地决策和扩展专业知识。
AI系统能从大量复杂、模糊的信息中抓取精要,转换为富有价值的洞察。这一难能可贵的能力有可能帮助人们揭晓世界上长久不察的各种秘密,进而促成诸多难题的解决。AI系统可以被用来诊疗疾病,预测气象和管理全球经济。没人能够否认它作为一款工具的强大。当然强大的工具在开发和部署过程中也需相当小心。
建立信任系统
人们对人工智能系统的信任,是这一工具产生社会效益的前提。安稳的信任需要经历不断重复的考验,历史上正是在经过很长一段“信任磨合期”之后,人们才最终学会信任用ATM存款,信任汽车的刹车系统能够可靠地让车子停下来。
简单来说,我们相信符合我们预期的行为。但是信任还需要一个最佳实践系统,帮助指导人工智能系统的安全和道德管理。其中包括协调社会规范和价值观、算法责任、遵守现行法律法规,另外还有确保数据算法以及系统的完整性、并保护个人信息和隐私。
有些人看到了AI被滥用误用的危险。和任何物理或数字的工具一样,AI当然难免也会发生这些情况。
IBM称其作为一家技术公司以及全球社会成员之一,将尽最大努力确保其AI产品是以正当的理由并且通过正确的方式进行开发。这些指导原则汇成一个系统,旨在帮助开发者和用户以及人工智能受益人之间建立信任关系。
该系统包括如下几个方面:
意图:每个公司都应制定指导方针,作为其运营道德和员工管理的指南。还需要一个有助于确保其合规性的治理体系。这些规则将避免公司有意无意地做危害社会之事。相同的道德商业行为标准也应该指导AI系统的开发。
算法责任和系统保证:信任建立在问责制之上。因此,AI系统的算法要尽量透明(至少是可解释的)。换句话说,它们要能够用人类能够理解的方式解释其行为——从数据输入的原因到特定结果产生的理由。
嵌入式价值观:人工智能系统价值观应与人类价值观相一致,以便人工智能能够为人类社会所接受。这一要求应同时适用全自动系统和人机协作系统,因为价值观不一致可能妨碍甚至破坏有效的团队协作。
设想在未来,每个AI都有自己的伦理模块,以便AI能够和人类进行富有成效的互动协作。
制定和嵌入道德标准并非一劳永逸。保持并遵守这些指南是一个长远的工作。涉及到开发商、AI应用行业以及监管机构之间的协同合作。
社群的每个成员都有义务保持信息透明和配合协作。这种技术的未来,更重要的是它能给全人类带来的好处便取决于此。
随着技术的发展和成熟,IBM鼓励其他科技公司和科研专家加入进来,一同打造更加强大、可靠同时值得信赖的AI应用程序。
发展人工智能并非没有风险。但IBM认为其中风险是可控的。相比之下,扼杀新技术等于拒绝改良世界的机会,后者所带来的风险更大。毕竟人类从来没有面对比人工智能更好的技术来造福社会。