DARPA资助人工智能 打开机器学习的黑盒子

据《麻省理工技术评论》最新报道,)正在资助13个不同的研究小组开发人工智能技术,包括人工智能的自我解释。最新的技术本质就是。DARPA正在大力资助,以求打开这些黑盒子。

DARPA是国防部负责探索新技术的一个部门,其资助的项目主要是为了让人工智能能够解释自己的行为,以获得使用者的信任和认可。这些方法包括进一步加深机器学习系统以能够解释自我行为,以及开发新的机器学习方法。

项目经理大卫·冈宁(David Gunning)表示:“我们现在正处于人工智能大爆发的时代。究其原因,主要是因为机器学习,尤其是深度学习。” 情报机构和军事人员正越来越依靠人工智能,利用深度学习来分析和处理所获得的大量数据。但美国军方对这种做法提出了质疑。

深度学习和其他机器学习技术风靡硅谷,极大改善了语音识别和图像分类。同时他们得到了前所未有的广泛使用,包括执法和医药领域。在这些领域,任何一个错误带来的后果可能会十分严重。但是,尽管深度学习非常擅长数据处理,但也不可能理解它是如何得出结论的。学习过程在数学上是十分复杂的,且通常无法把它转化成人们能理解的东西。

不仅深度学习解释起来特别困难,其他机器学习技术也很具有挑战性。冈宁表示:“这些模型十分晦涩难懂,以至于人们很难去理解,尤其如果他们不是人工智能方面的专家。”

深度学习因其极度复杂而显得特别神秘。它的灵感来自于大脑中神经元响应输入的过程。许多模拟的神经元和突触层都被标记了数据,当他们开始学习时,标记的数据会发生变化,例如,学习照片里的一只猫。但是,机器学习模型被数以百万计的神经元编码,因此测试起来非常具有挑战性。举例来说,深度学习识别一只猫时,目前还不清楚该系统会将注意力集中在猫的哪一个部位。

冈宁表示:“通常,如果一个机器学习模型晦涩难懂,也无关紧要,但是对于试图识别潜在目标的情报官员来说,却不是如此。有一些关键的应用需要解释清楚。”

“军方正在开发无数自主系统,而这些系统将会严重依赖像深度学习之类的机器学习技术。自动驾驶车辆和无人机将会在未来几年越来越多地得到使用,且他们的能力也会日益增强,” 冈宁称。

可解释性不只是对证明决策非常重要,它还可有助于防止事情出错。因此,提供解释可帮助研究人员使他们的系统更可靠,并阻止那些依赖它们的人犯错误。

一个来自于Charles River Analytics的小组得到资助。这是一个为各类客户(包括美国军方)开发高科技工具的公司。这个团队正在探索新的具有解释功能的深度学习系统。研究人员也在进行计算机接口实验,以使机器学习系统的运作在使用数据,可视化甚至自然语言解释时更清楚明确。

德克萨斯A&M大学教授Xia Hu,也是获得资助的团队之一的负责人。他表示,在应用机器学习的其他领域,例如医药,法律和教育,这个问题也很重要。Hu教授说:“没有相关解释或推理,领域内专家不会相信所取得的成果。这就是许多领域内专家拒绝采用机器学习或深度学习的主要原因。”

(来源:战略前沿技术)


© 2024 实用范文网 | 联系我们: webmaster# 6400.net.cn