数字人民币应用场景有望拓展
|
为了确保在建立用于训练人工智能的数据集时的最佳实践,首先需要有各种各样的数据科学家收集和分析数据。他说:“对人工智能进行培训的任何部分都不应由个人来监督,通过交叉检查工作,可以更有效地消除个人偏见。” 使数据多样化 还需要各种数据集。通过在历史数据上训练机器学习模型(例如,显示男性更常被提升为高级职位的数据,或者大多数技术行业的工人是白人),编码人工智能的偏见几乎是不可避免的。 埃森哲公司负责人工智能的经理Caryn Tan告诉表示:“组织构建和设计人工智能的组织必须记住,它受到所提供信息的限制。一种算法无法分辨出什么时候不公平,它只是沿用了历史模式。如果我们不采取措施缓解这种情况,可能会导致不良的反馈循环,从而可能根据人们的出身,历史甚至刻板印象来诱捕他们。因此,组织必须采取积极措施来解决潜在的偏见,然后才有机会表现出来。” CodeFirs tGirls的首席执行官AnnaBr人工智能lsford补充说,为了确保使用各种数据集对模型进行训练,至关重要的是“多样性和包容性是业务决策基础的一部分”。 她表示,“在科技行业,机器学习和人工智能系统固有地存在偏差,这是用来训练其智能的数据集的结果。”“哈佛大学的研究人员发现,公司正在使用有缺陷的历史数据集来训练其人工智能以进行招聘;意味着有色人种和女性甚至在参加面试之前就已经受到歧视。 “自上而下的方法不是解决之道,并且可能会进一步加剧现有的人工智能偏见。相反,企业需要将多样性和包容性视为一个持续的学习过程。” 透明度是关键 当然,企业还必须考虑人工智能准则和透明度,尤其是在监管审查日益严格的情况下。例如,欧洲委员会已经发布了有关应在设计人工智能应用程序时使用的关键道德原则的指南,而美国联邦贸易委员会(FTC)在2020年初呼吁“透明人工智能”。 后者指出,当启用人工智能的系统做出不利决定(例如拒绝信用卡申请)时,组织应向受影响的消费者展示做出决定所使用的关键数据点,并赋予他们更改权任何不正确的信息。 NTTDATAUK新创企业和创新副总裁Tom Winstanley表示:“随着人工智能在整个经济中的规模不断扩大,至关重要的是,企业必须制定稳健的道德标准,并在其运营核心体现人工智能准则。透明度至关重要:公司不能依赖'黑匣子'数据集,而应该公开其如何训练人工智能以及为确保以负责任的方式使用人工智能所采用的标准。因此,NTTDATA去年公开宣布了自己的人工智能道德准则。” Rodvold补充说:“确保技术的透明度以及强大的多样性做法,将有助于消除偏见并确保您建立公众信任。全面的数字道德方法在人工智能开发中考虑多样性,透明性,隐私和安全性的交集,将确保您在人工智能之旅中吸引客户,并提供有效的,可持续的技术。” 随着人工智能在各行各业中变得越来越普遍,并且这些系统中的内置偏差问题已得到充分记录,对于企业而言,立即采取行动以确保其软件和流程不受偏差是至关重要的。值得庆幸的是,尽管在疫情期间它的采用率猛增,但还需要采取一些措施。
这意味着,通过战略多元化努力,仍然可以更好地塑造人工智能的未来。 (编辑:平顶山站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
