更新时间:2024-09-21 23:07:37点击:
今天的人工智能系统在贷款、医疗临床和减刑等方面的决策中扮演着了最重要角色。而由于它们也是不半透明的系统,所以使得它们更容易受到种族主义影响。在缺少透明度的情况下,我们总有一天会告诉为什么一名41岁的白人男性和一名18岁的黑人女性犯有类似于的罪行,不会被AI软件分别评估为“较低风险”与“高风险”。
出于商业和技术原因,目前无法对大多数人工智能决策展开自动分解的高保真说明。这就是为什么我们应当推展负责管理高风险决策的AI系统的外部审核。大规模的自动审核可以系统地观测AI系统,并找到种族主义或其他不良行为模式。
最臭名昭著的黑匣子AI种族主义例子是美国司法系统中用于的软件,该软件用作引荐量刑和罚款数额等。ProPublica对用作减刑决策的、最普遍用于的犯算法之一的分析说明了了潜在的根本性种族主义和不准确性。在观测更加多信息时,创建者拒绝接受共享其专有算法的细节。
这种保密使被告无法在法庭上批评这些要求。只不过媒体也报导了在其他许多情况下不存在的人工智能种族主义,比如一个令人惧怕的机器人,告诉他亚洲人在护照核查时“睁开眼睛”;比如面部识别系统在辨识黑皮肤和女性面孔方面不过于精确;比如人工智能聘用工具种族歧视女性等。
作为对此,监管机构企图通过所谓的“可说明人工智能”来强迫构建透明度。例如,在美国,拒绝接受个人贷款申请人的贷方必需为有利要求获取“明确原因”。
在欧盟,GDPR拒绝所有高风险自动决策的“解释权”。意外的是,可说明AI的挑战是艰难的。首先,说明可以揭发专有数据和商业秘密。说明在大数据集上训练的简单非线性神经网络模型的不道德也十分艰难。
我们如何说明从数千个输出的权重非线性人组得出结论的结论,每个输出都为整体辨别获取了微观的百分点?因此,我们一般来说不会在自动说明AI决策时在保真度和准确度之间展开权衡。例如,Netflix企图根据你之前观赏过的一个节目来说明其引荐算法。
实质上,它的建议基于众多因素和简单算法。尽管Netflix建议背后的修改解释是有害的,但在高风险情况下,这种过度修改有可能是危险性的。即使是非常简单的预测模型也有可能展现出出有违背直觉的不道德。AI模型更容易受到称作辛普森悖论的普遍现象的影响,其中不道德由潜在的未仔细观察变量所驱动。
在最近的一个案例中,研究人员找到,哮喘病史会减少患者肺炎丧生的风险。对于医疗保健从业者和哮喘患者来说,这种天知道说明不会产生误导。实质上,这一找到归咎于那些有哮喘病史的人更加有可能立刻获得护理。这不是一个孤立无援的事件,这些错误的结论无法用更好的数据只能解决问题。
尽管我们代价了仅次于的希望,但人工智能的说明依然很难解读。为了提升透明度,我们提倡可审核的人工智能,这是一种可以通过假设案例展开外部查找的人工智能系统。
这些假设情况可以是制备的也可以是现实的——容许对模型展开自动、即时、细粒度的告知。这是监控AI系统种族主义或薄弱迹象的非常简单方法:如果我们转变被告的性别不会怎样?如果贷款申请人居住于在历史上的少数民族社区,不会再次发生什么?与可说明的AI比起,可审核的AI有几个优点。让中立的第三方调查这些问题比用于算法创建者掌控的说明更佳地检查种族主义。
其次,这意味著软件的生产者不用曝露其专有系统和数据集的商业秘密。因此,人工智能审核可能会面对较小的阻力。审核是对说明的补足。
事实上,审核可以协助调查和检验(或违宪)AI说明。比如Netflix引荐《阴阳魔界》,因为我看完《怪奇物语》。它还不会引荐其他科幻小说可怕节目吗?它否向所有观赏过《怪奇物语》的人引荐《阴阳魔界》?可审核人工智能的早期用例早已产生了大力的影响。ACLU最近透漏,亚马逊可审核面部辨识算法的准确度完全是错误辨识的两倍。
更加多的证据指出,公共审核可以提升代表性严重不足群体的模型准确性。在未来,我们可以设想一个强劲的审核生态系统,获取对AI的看法。
我们甚至可以想象“AI监护人”,一个基于审核创建AI系统的外部模型。监管机构可以坚决拒绝用作高风险决策的AI系统获取审核模块,而不是拒绝AI系统获取较低保真度的说明。
可审核的AI不是灵丹妙药。如果AI系统正在展开癌症临床,患者依然必须精确且更容易解读的说明,而某种程度是审核。这些说明是正在展开的研究主题,并且未来将会在旋即的将来为商业用途作好打算。
但与此同时,可审核的人工智能可以提升透明度,并压制种族主义。
本文来源:南宫NG·28-www.etmoc.net