微软研究院开源了一个旨在解决AI“黑匣子”问题的软件工具包lnterpretML,这将为开发人员提供多种解释方法进行实验模型和系统。
InterpretML实现了许多可理解的模型,包括可解释的Boosting Machine,以及几种可以解释黑匣子模型行为或其个体预测的方法。InterpretML目前可在GitHub上获得。
由于人工智能在法律和医疗保健等行业得到了更频繁的应用,因此人工智能系统的解释和预测能力越来越受到关注。
当人工智能系统影响人们的生活时,人们了解它们的行为至关重要。通过了解行为,数据科学家可以正确调试模型,如果能够推断模型的行为方式,设计师可以将这些信息传达给最终用户。
如果医生,评委和其他决策者信任支持智能系统的模型,他们就可以做出更好的决策。更广泛地说,通过更全面地了解模型,最终用户可能更容易接受由AI驱动的产品和解决方案,同时可能会更容易满足不断增长的监管机构需求。
在实践中,实现可理解性是复杂的,并且高度依赖于许多变量和人为因素,排除任何类似“一刀切”的方法。可理解性是一个前沿的、跨学科的研究领域,建立在机器学习、心理学、人机交互和设计的思想之上。
微软研究人员还认为,可解释性可以帮助开发人员制定训练AI模型或衡量方法之间一致性的最佳方法的决策。
微软在西雅图召开年度Build开发者大会之际,在Web上引入了用于文档创建的Fluid框架,Azure Kubernetes服务的新增功能,以及AI和机器人工具包的首批组件。
Azure云和人工智能负责人Seth Guthrie于上周断言,微软参与开源项目的意愿远远超过亚马逊或谷歌,“我认为你们看到的微软是一个非常开放的公司,它既是消费者,也是贡献者,我认为这是独一无二的。相对来说,AWS对开源的贡献不是很多。”
开源: github.com/Microsoft/interpret
End