发布于 : Nov 20, 2019
不在本期内容中
这一条目不在当前版本的技术雷达中。如果它出现在最近几期中,那么它很有可能仍然具有相关参考价值。如果这一条目出现在更早的雷达中,那么它很有可能已经不再具有相关性,我们的评估将不再适用于当下。很遗憾我们没有足够的带宽来持续评估以往的雷达内容。
了解更多
Nov 2019
试验
深度神经网络在很多问题上都表现出了惊人的记忆力和准确性。只要有足够的训练数据和适当拓扑选择,这些模型就能满足并超越某些特定问题域中的人类能力。然而,它们天生是不透明的。虽然模型的某些部分可以通过迁移学习进行重用,但是我们很少能够赋予这些元素人类可理解的意义。相比之下,可解释的模型是一个允许我们说明决策是如何做出的模型。例如,一个决策树产生描述分类过程的推理链。可解释性在某些受监管的行业,或当我们关注决策的道德影响时变得至关重要。由于这些模型被更广泛地合并到关键的业务系统中,因此将可解释性作为模型选择的头等标准非常重要。尽管功能强大,神经网络在可解释性要求严格的情况下,也可能不是一个合适的选项。