人工智能算法真能给出公平的结果么?

新加坡国立大学EMBA
2021-09-24 14:27 浏览量: 3451

不久前,职业社交平台领英(LinkedIn)发布了一个公平性检测工具包(LiFT),这是一个开源软件库,可供企业检验自己的人工智能模型是否公平。这对一直希望把控人工智能使用公平性的企业和政府来说,无疑增添了助力。

谷歌也在网站上列出了检测不公平偏见的技巧,以及自身关于这一主题的研究论文链接。

新加坡设有人工智能治理框架模型,就如何将公平性和透明度转化为实践提供建议。例如,让利益相关者了解人工智能政策。欧盟也制定了“值得信赖的人工智能伦理指南”。

教授简介

扫码查看

英文简历

David De Cremer

新加坡国立大学商学院

管理与组织系教务长讲席教授

人工智能技术与人性化管理研究中心(AiTH)主任

英国·南安普敦大学博士

教研领域:21世纪领导力、商业资产信用、国际商业环境的行为方式、组织正义、商业伦理行为、数字经济和人工智能时代领导力等

时至今日,仍有人对人工智能的日益广泛普及感到不安。

在英国,算法可以根据中学历史打分情况来推测A等级的优等生成绩。许多学生的预测成绩都有所下降——尤其是那些来自贫困学校的学生。人工智能的使用本来是为了减少教师在预测学生成绩时的偏见,但如今却产生了新的偏见。

算法从输入机器的数据中自我学习。因此,如果数据带有偏见,结果也会产生偏见。

今年,底特律警方错误逮捕了一名非洲裔美国人,只因人工智能面部识别误将他识别为抢劫嫌疑人。

在这些事件中,最终用户相信算法给出的结果吗?使用人工智能的公司因此需要建立信任。

研究表明,当人们感觉受到公平对待时,会产生更高的合作意愿,并且表现得更好。同样,如果人们认可人工智能的公平性,他们对于算法的建议也会倾向于接受。

推动人工智能发展的政府和正在使用人工智能的企业要如何向用户证明它的公平?这不单单是一个技术问题,比如在找到正确的自动化流程时考虑某些特性,比如问责性和可解释性。

不仅如此,公平是一个社会概念,人类以此决定如何与他人互动,从而使各方都变得更好。这里所关注的是更广泛意义上的问题。因此,想要了解算法的公平性,就必须超越技术层面,思考社会力量。

其中一项重要力量在于,当人们为了更高一层次的任务合作时,人工智能所提供的帮助有多大。

每个人息息相关

因此,人工智能系统的公平性不应只由数据工程师和科学家团队来决定。政府、公司和机构也需要考虑利益相关者以及最终用户的看法。他们是否感觉受到了公平对待?他们对于公平的期望是什么?

由于人工智能不具备道德品质,需要人们在特定社会背景下,评估人工智能推荐的解决方案是否公平。因此我们需要那些了解社会规范并且具有较高道德价值观的人。

当然,人都有自己的偏见,但研究表明,在评估他人决定时,他们会更加客观。由此可见,无论在学校还是在工作场所,都必须重视道德准则规范。

要记住“人性化”

由于人工智能的公平性比简单寻找技术解决方案更复杂,算法的开发也需要有更人性化的方法。我们必须在追求效用和人性关怀之间寻求平衡,这样才能使其公平性得到认可和接受,而不是简单地寻找优化合理的算法。

人类没有固定的生产率,我们的生产力爆发期时间很短,我们在某些环境中的表现比其他环境要好一些。因家庭变故感到悲伤,或者遇到个人生活中的新变化,这些我们都需要花点时间来适应。

由于疫情的蔓延,许多家庭不得不适应与亲人长时间分离的生活。一些父母还在为居家工作的同时还要照顾孩子学业而烦恼;一些医护人员也在纠结,是要把孩子托付给亲戚,还是冒着传染的风险将孩子留在身边。

虽然人工智能可以做出最优化的资源分配和工作管理流程决策,但我们也需要一些缓冲,因为人类时不时需要帮助。作为社会中的一员,我们需要记住这一点。

最终,人工智能系统是否公平取决于最终用户。系统是否具有先进的技术并不那么重要,人们主要会根据自身对算法用于解决问题的看法、结果能否符合自身价值观来判断其公平性。这意味着数据科学家和工程师在构建系统时,必须牢记这些价值。

例如,如果一家公司重视少数群体的包容性,那么这些群体的数据就应该列入考量范围,而不是被视为异常数据。

出于这一原因,人们最终评判的其实是公司而非算法的公平性。的确,在大众眼中,算法无法感知道德——它只是机器!因此,它无法对计算结果负责。

相反,机构和政府是由人领导的,它们被视为有能力对自己的决策(包括人工智能的使用)负责。因此,要建立一个公平的人工智能系统,承担责任者就会受到更多的审视,他使用人工智能是否能够得到信任也会受此影响。

领导者必须清楚自己的价值观,考虑最终用户对计算结果的信息需求和期望。只有这样,人类才会更加信任人工智能。

文章英文版刊发于新加坡国立大学商学院官网BizBeat

原文标题为Build trust, build AI fairness

点击左下角阅读原文查看

作者:David De Cremer,新加坡国立大学商学院管理与组织系教务长讲席教授、人工智能技术与人性化管理研究中心(AiTH)主任

推荐阅读

(点击图片阅读)

编辑:刘蕊

(本文转载自 ,如有侵权请电话联系13810995524)

* 文章为作者独立观点,不代表MBAChina立场。采编部邮箱:news@mbachina.com,欢迎交流与合作。

收藏
订阅

备考交流

免费领取价值5000元MBA备考学习包(含近8年真题) 购买管理类联考MBA/MPAcc/MEM/MPA大纲配套新教材

扫码关注我们

  • 获取报考资讯
  • 了解院校活动
  • 学习备考干货
  • 研究上岸攻略

    暂无数据