目前,算法的应用已经非常普遍,但是对大部分人并不知道算法的决策原理和依据。对此,谷歌近日推出了“ Explainable AI”,帮助用户理解算法的决策原因、依据和过程,来使得算法更加透明。通过这个工具,用户可以看到各个算法是怎么实现的。来新智元AI朋友圈和AI大咖们一起讨论吧。
虽然大多数人每天都会遇到算法,但没有多少人可以说他们真的了解AI的实际工作原理。但是,Google推出了一种新工具,希望能够帮助普通人掌握机器学习的复杂性。
该工具被称为“可解释AI”(Explainable AI),它可以向用户解释机器学习模型的处理结果是如何得出以及为什么得出决策的。
谷歌表示,这样做将用户更加信任机器学习模型。这一点很重要,之所以大多数现有模型往往相当不透明,是因为多数用户不清楚他们如何做出决定。
可解释AI给算法打分、量化数据因素,让你更懂算法
为此,可解释AI工具将量化数据集中每个特征对算法结果的贡献,每个数据因子都会有一个分数,来反映了它对机器学习模型的影响程度。
用户可以拉出该分数,来了解给定算法为何做出特定决策。例如,对于决定是否批准某人贷款的算法模型,“可解释AI”将显示帐户余额和信用评分作为最决定性决策的依据数据。
谷歌云首席执行官托马斯·库里安(Thomas Kurian)在伦敦的Google活动中介绍了该新功能,他说:“如果您使用AI进行信用评分,您会想知道为什么算法模型根据信用评分通过这个人却拒绝了另外一个。”
他说:“对于在企业的业务流程中使用人工智能的客户,‘解释AI’可以帮助您理解为什么人工智能基础架构能够产生特定的结果。”换句话说,“可解释AI”能否准确解释特定机器学习模型为何得出结论,对于企业中负责最终决策的高管来说很重要。对于高度严格的行业来说,能够相信AI作出的决策是至关重要的。
“可解释AI”现在可以用于托管在Google的AutoML Tables 和Cloud AI Platform Prediction上的机器学习模型。
此前,谷歌也曾采取措施使算法更加透明。去年,它推出了“假设工具”,供开发人员在使用谷歌的AI平台时,能够可视化和探查数据集。
通过量化数据因素,“可解释AI”可以给出更多见解,并让更多用户读懂这些见解。
“模型卡”将算法“黑匣子”打开,提供有关特定算法详细实用信息
Google Cloud战略主管Tracy Frey说:“您可以将‘可解释AI’与我们的假设分析工具配合使用,以全面了解算法模型的行为。”
在某些领域,例如医疗保健,提高AI的透明度将特别有用。例如,在某些疾病诊断的算法中,它会将医生诊断病症并给出决策的过程可视化,并验证这些症状不是假阳性或其他疾病的征兆。
谷歌还宣布将推出所谓的“模型卡”的新概念,即提供有关特定算法快速信息的简短文档。
这些文档实质上是用于机器学习的ID卡,其中包括有关模型性能和限制的详细实用信息。谷歌表示,这将“帮助开发人员更好地决定将哪种模型用于什么目的,以及如何负责任地部署它们。”
目前,Google已发布了两个模型卡示例,其中提供了有关人脸检测算法和对象检测算法的详细信息。
面部检测模型卡说明,该算法可能会受到面部尺寸,方向或光线不足的限制。
图片:Google模型卡
用户可以阅读有关模型输出的信息,如性能和局限性。例如,人脸检测模型卡说明该算法可能受到人脸尺寸,方向或光线不足的限制。
这次,宣布的新工具和功能是Google证明其遵守AI原则的尝试的一部分,该原则要求在开发该技术时提高透明度。而今年早些时候,谷歌解散了成立一周的AI道德委员会,该委员会旨在监督其谷歌对人工智能的使用。