您的位置:首页 >优惠 >

DarwinAI团队发布关键的可解释性文件 致力于提高AI的全行业信任度

2019-不列颠哥伦比亚省温哥华市(GLOBE NEWSWIRE)-NeurIPS位于加拿大滑铁卢的初创公司,为人工智能开发开发下一代技术的初创公司今天宣布,该公司已经进行了学术研究,回答了关键问题行业问题:“企业如何信任AI生成的解释?”

可解释性一直是解决AI“黑匣子”问题的关键,因为人类几乎不可能理解深度神经网络如何做出决策。迄今为止,在新生的深度学习领域中对可解释性方法的评估还很有限,并且大多数现有的评估都集中在主观视觉解释上。

该论文由DarwinAI团队撰写,拥护以机器为中心的策略来量化可解释性算法的性能,并将在业内最负盛名的AI会议之一NeurIPS 2019上发表。DarwinAI(最近也被称为Gartner“酷供应商”)正在开发其可解释性平台的新版本,该平台将提供其他功能以增强企业对AI的理解和信任。

DarwinAI首席执行官Sheldon Fernandez说:“深度神经网络如何做出决策的问题困扰着研究人员和企业,这是广泛采用这种特殊形式的AI的重要障碍。”“至关重要的是,企业必须了解神经网络如何做出决策,才能设计出具有一定信任度的强大模型。”

“神经网络的可解释性一直是深度学习工程师的核心概念,这是我们行业的必要和至关重要的目标,”与DarwinAI合作的自动驾驶公司Voyage的首席技术官Drew Gray说。“通过这项研究,DarwinAI团队引入了可解释性的具体性能指标,也突出了他们自己方法的好处。他们的工具集通过将可解释的见解转化为模型设计和数据集扩充的建议,将概念提升到一个新的水平。后者对我们来说特别令人兴奋。”

NeurIPS的DarwinAI研究动力

DarwinAI的论文“解释是否反映了决策?“以机器为中心的策略来量化可解释性算法的性能”,探索了一种以机器为中心的策略来量化可解释性方法在深度神经网络上的性能。

本质上,团队对深度学习网络进行了巧妙的心理测试,删除了解释变量,然后让网络重新评估结果以确定给定算法的有效性。团队使用这种方法对几种最新的可解释性方法进行了全面分析,包括他们自己的专有技术LIME,SHAP,期望梯度和GSInquire。

DarwinAI团队在NeurIPS 2018上发表了五篇论文,将在NeurIPS 2019上展示公司的可解释性指标研究以及四篇其他研究论文。

在一项研究中,该团队介绍了YOLO Nano,这是一种高度紧凑的深度卷积神经网络,旨在用于边缘和移动设备上的嵌入式对象检测。该模型是使用该公司的Generative Synthesis平台生成的,该平台使用AI本身来优化神经网络以减少其计算需求。此外,该技术是对硬件工具箱的补充,这些工具箱可提高特定芯片组的性能。例如,工程师通过在第二代Intel Xeon可扩展处理器上利用嵌入式Intel深度学习Boost技术,可以大大加快Generative Synthesis的推理性能。这种组合为深度学习从业人员提供了强大的产品。

英特尔机器学习性能副总裁兼总经理魏力表示:“英特尔和DarwinAI经常合作,以优化和加速各种英特尔硬件上的人工智能性能。”“但是除了性能,我们还非常支持他们对算法透明性和可解释性的研究,这将有助于使AI部署公平,可审核且符合道德。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。