AI眼看人低,如何破除AI数据训练中的偏见?|科技创新伦理前瞻
我们知道,人工智能(AI)作为一项改变世界的技术,正以前所未有的速度渗透到我们生活的方方面面。从智能手机上的语音助手到自动驾驶汽车,AI都在发挥着越来越重要的作用。然而,AI模型的性能很大程度上依赖于其训练数据。如果训练数据中存在偏见,那么AI模型很可能会将这些偏见放大,导致不公平、不准确甚至有害的结果。
中国生物多样性保护与绿色发展基金会生物与科学伦理工作委员会(绿会BASE)
偏见从何而来?
过去常常我们说“狗眼看人低”,因为狗狗常常基于自己的过去看到的不同的人的经验、来决定新出现的一个人是什么身份、应该如何对待;以后在算法的世界里面,可能常常某个“AI眼看人低”的情况。
AI训练数据中的偏见,主要来源于几个方面。一是历史数据往往反映了社会的过去,其中包含着各种各样的社会偏见,例如种族歧视、性别歧视、阶层歧视等。这些历史遗留问题在数据中留下了深深的烙印。二是数据收集的方式和渠道,可能会引入偏见。你比如,如果一个问卷调查主要针对城市居民,那么AI模型就可能对农村居民的情况了解不足。又如,数据标注过程中的主观性也是一个重要因素。人工标注数据时,标注者的个人观点、价值观和文化背景会不可避免地影响标注结果,从而引入人为的偏见。而且,算法设计中的“假设”,也很可能导致偏见。算法的设计者在设计算法时,往往会做出一些隐含的假设,这些假设可能反映了设计者的个人偏见。
偏见对AI模型的影响
AI训练数据中的偏见,常常容易对AI模型产生一系列负面影响。最直接的影响就是导致不公平的决策。如,如果一个面部识别系统主要基于白人男性数据训练,那么它在识别有色人种女性时准确率就会大大降低。此外,偏见的AI模型还会导致不准确的预测。例如,在犯罪预测中,如果训练数据中存在对特定族裔的偏见,那么AI模型就可能对该族裔的人群进行过度预测。更严重的是,偏见的AI模型可能会强化社会中的既有偏见,导致恶性循环。例如,如果一个招聘算法倾向于筛选出男性候选人,那么女性在职场中的机会就会减少,从而进一步巩固了女性在职场中的弱势地位。
如何破解训练数据中的偏见?
解决AI训练数据中的偏见问题是一个系统工程,需要从多个维度入手。从在数据层面来说,建议可以通过数据清洗、数据增强和数据平衡等技术来减少数据中的偏见。
“数据清洗”是指识别并去除数据中的异常值、噪声和明显偏见的数据。数据增强是指通过对现有数据进行变换或增加新的数据来扩大数据集,从而减少模型对特定样本的依赖。数据平衡是指确保训练数据中不同类别的样本数量均衡,避免模型过度拟合某一类样本。
从在算法层面来说,可以通过设计公平性约束和开发可解释性模型来减轻偏见。公平性约束,是指在算法设计中加入一些约束条件以确保模型对不同群体做出公平的预测。可解释性模型,是指能够解释模型决策过程的模型,通过对模型决策过程的分析,我们可以发现并纠正潜在的偏见。
再者,从团队层面来看,管理者也可以通过构建多元化的团队,来减少可能的“偏见”。一个多元化的团队(请注意,diversity是个宝贝!)能够带来不同的视角和经验,有助于发现和纠正潜在的偏见。此外,我们还可以通过增加训练数据的多样性来减少模型对特定群体的偏见。
拓展到社会层面的角度,我们需要建立健全的法律法规和伦理规范,来规范AI的开发和应用。同时,我们也需要加强公众对AI的理解,提高公众对AI伦理问题的关注。
【案例分析】
为了更好地理解AI偏见问题,咱们来看几个具体的例子。
(一)外卖算法的例子。你有没有发现,大量闯红灯的摩托车/电动车,是外卖?为什么他们那么着急?咱们看个例子。
在某一天的晚高峰,小王接到了大量订单。AI算法根据实时交通数据和历史订单数据,为小王规划了一条看似高效的配送路线。由于突发交通事故导致道路拥堵,AI算法未能实时更新路况信息,导致小王被困在拥堵路段。由于严重拥堵,小王无法按时送达订单,导致多位顾客投诉,平台对小王进行了处罚。
从这个案例可以看到:AI算法依赖于大量历史数据和实时数据,但现实情况往往复杂多变,突发事件难以完全预测。而且,平台为了提高配送效率,可能会牺牲配送员的利益,将配送员置于高压的工作环境中,并逐渐变成一种行业潜规则、常态。曾在电梯里面遇到过风风火火的外卖员,有外卖员告诉过笔者:不闯红灯、争分夺秒,他一个月被扣得剩不下几个钱。
(二)招聘算法的性别偏见。我们知道,现在许多公司喜欢用AI算法来筛选简历。然而,一些研究发现,这些算法往往倾向于筛选出具有男性特征的简历,例如,简历中包含“领导力”、“竞争力”等词汇的男性简历更容易通过初筛。这种性别偏见,有可能导致女性在求职过程中面临更大的困难。
(三)医疗诊断算法的社会经济地位偏见:一些医疗诊断算法在预测患者患病风险时,会受到患者社会经济地位的影响。例如,算法可能会认为低收入人群患慢性病的风险更高,从而导致这些人群在医疗资源分配上处于劣势。
(四)还有一个常见的情景,是刑事司法系统的种族偏见。一些犯罪预测算法,可能对少数族裔的预测结果存在偏差,导致他们更容易被标记为高风险人群。这种偏见可能导致执法部门对少数族裔进行过度监控,从而侵犯他们的权益。
事实上,犯罪预测算法的种族偏见不仅侵犯了少数族裔的个人权益,还加剧了社会的不信任和不平等。在一些“熔炉式”的多民族/多移民国家,那么这种算法的广泛应用,就有可能导致执法机构对少数族裔社区的过度干预、或者是不公正的过度反应,有可能带来损害社区的稳定、甚至是造成冲突。(值得一提的事:要知道,算法是具有“黑箱”性质的。很多犯罪预测算法的内部逻辑并不透明,这使得我们很难评估其公平性,也增加了算法被滥用的风险。)
(五)贷款审批算法的信用评分偏见:贷款审批算法通常会根据申请人的信用评分来决定是否发放贷款。但信用评分系统往往容易存在历史偏见。例如,长期以来,少数族裔和低收入人群的信用记录往往较差,这可能就会导致他们更难获得贷款。
(六)基因编辑与人类胚胎:基因编辑技术CRISPR-Cas9的出现,使得科学家能够对人类胚胎的基因进行精确修改。这引发了关于“设计婴儿”的伦理争议(殷鉴不远,对吧?此前某些机构甚至是想把这个事儿当做一个好事来宣传,没想到变成了全球警示器)。一方面,基因编辑技术有望治疗遗传疾病,造福人类;另一方面,随意修改人类基因组可能导致不可预知的后果,甚至可能创造出“超级人类”,加剧社会不平等。
(七)面部识别系统的种族偏见。一些面部识别系统在识别有色人种时准确率显著低于白人。这主要是因为这些系统在训练时,使用了大量白人面孔的数据,导致模型对白人特征的识别能力更强,而对其他种族特征的识别能力较弱。这种偏见可能导致有色人种在出入境、金融交易等方面受到不公正的待遇。
(八)再来看看一个有关生物多样性的——转基因生物与生态安全的例子。转基因生物的引入,可能对生态系统造成潜在威胁。比如转基因作物可能与野生近缘种杂交,导致基因污染,从而破坏生态平衡。
事实上,转基因生物的开发与应用涉及到复杂的伦理和社会问题。AI技术在其中扮演着越来越重要的角色:一方面,AI可以加速转基因技术的研发,提高其安全性;另一方面,AI也可能被用于传播虚假信息,误导公众。如何平衡AI技术带来的机遇与挑战,确保转基因技术的安全、可控发展,是一个亟待解决的伦理问题。我们完全有理由可以问:AI是否会加剧转基因技术的滥用?如何确保AI在转基因技术监管中的公平性?
…… 诸如此类案例,可谓不胜枚举。
而且还有一个问题——以上种种,门槛越来越高,普通老百姓身在“算法”中,却不知庐山真面目。
所以说,AI训练数据中的偏见是一个复杂、而又深远的问题,需要从技术、社会和伦理等多个角度进行综合治理/敏捷治理,进行科技创新中伦理问题前瞻研究、以及不断地纠错。通过不断地探索和实践,接受公众的质疑、面对伦理质询和挑战,才能开发出更加公正、可靠的AI模型,让AI真正为人类服务——君子物物、而不物于物!
本文仅代表资讯,不代表平台观点。
欢迎转发(请注明来源)。
文 | 沈一杭
审核 | 绿茵 橡树
排版 | Candy