更新于 : Oct 26, 2022
不在本期内容中
这一条目不在当前版本的技术雷达中。如果它出现在最近几期中,那么它很有可能仍然具有相关参考价值。如果这一条目出现在更早的雷达中,那么它很有可能已经不再具有相关性,我们的评估将不再适用于当下。很遗憾我们没有足够的带宽来持续评估以往的雷达内容。
了解更多
Oct 2022
试验
我们看到许多客户项目正在使用 联邦学习 (ML)。传统上机器学习模型训练时需将数据放在集中运行模型训练算法的地址。在隐私角度上,这存在问题,特别是当训练数据包括敏感或者可用于身份识别信息时;用户也许不愿意分享数据,当地的数据保护法律也可能不允许我们将数据转移至一个中心化的位置。联邦学习是一个去中心化的技术,它使模型可以在大量不同来源的数据集上训练,并让数据保持在远端,例如用户的设备上。尽管网络带宽和设备的算力限制目前仍是这项技术重大的挑战,但是我们喜欢联邦学习的思路,让用户可以完全控制自己的个人信息。
Nov 2019
评估
模型训练通常需要从数据源收集大量的数据,并将这些数据传输到集中运行模型训练算法的服务器上。但是如果训练数据集中包括个人身份信息,这就会成为问题。而联邦学习这项技术的出现让我们备受鼓舞。联邦学习是一种隐私保护方法,用于训练大量的,与个人信息相关的各种数据集。联邦学习技术可以让数据保留在用户的设备上,并完全控制在用户的手中,但最终会仍然可以组合成一个整体的训练数据集。在联邦学习中,每个用户设备独立地更新模型。然后将模型的参数(而不是数据本身)组合成一个集中式的视图。尽管网络带宽和设备算力限制会给这项技术带来一些重大的技术挑战,但是我们喜欢联邦学习的思路,让用户可以完全控制自己的个人信息。
发布于 : Nov 20, 2019