边缘人工智能系统中的偏差处理

2020年12月11日//尼克·弗莱赫蒂
边缘人工智能系统中的偏差处理
可以轻松将机器学习添加到摄像机系统的工具正在出现,同时还出现了解决边缘人工智能框架中潜在偏见的工具

端到端机器学习工具,如来自布莱兹旨在消除在开发和部署尖端人工智能应用,特别是在相机系统中对数据科学家的需求。但这些数据科学家也强调,人工智能框架很容易受到用于培训的数据的偏见。

本周出现了新的工具来分析甚至纠正这些框架中的偏见,这是edge AI系统开发人员的关键一步。

Amazon SageMaker Clearify是本周发布的一款新工具,帮助客户检测机器学习(ML)模型中的偏差,并通过帮助解释模型的行为来提高透明度。这些模型是通过学习数据集中存在的统计模式的训练算法构建的,但在框架如何进行预测以及如何检测异常方面存在问题。

在昨天发布的AI Studio中,Blaize试图通过透明的步骤和开放的框架(如ONNX和openVL)来解决一些问题。

亚马逊Wes服务(AWS)EMEA地区人工智能和机器学习传道者Julien Simon说,即使出于最佳意图,数据集中也可能存在偏见问题,并将其引入模型中,产生商业、道德和监管后果。这意味着模型管理员必须意识到生产系统中潜在的偏差来源。

他说,对于简单且易于理解的算法,如线性回归或基于树的算法,打开模型、检查它在训练过程中学习到的参数以及找出它主要使用的功能是相当容易的。

然而,随着深度学习模型变得越来越复杂,这种分析变得不可能。许多公司和组织可能需要ML模型在生产中使用之前具有可解释性。此外,当ML模型作为决策的一部分使用时,一些规则可能需要可解释性,闭合循环,可解释性也有助于检测

图片:
来自synthetic.io的工具可以分析AI系统并生成合成数据以纠正偏差

你确定吗?

你有饼干,你有波维兹加纳维格饼干。

你是谷歌的翻版。

Baidu