首页 今日头条正文

机器学习从业者应该重视算法带来的社会小看问题,而不只仅是精确度和给公司带来的赢利。

机器学习中的品德问题

大多数时分,机器学习并不触及特别灵敏的社会品德问题。有人给咱们一个数据集,并要求咱们依据给定的特点猜测房价,将图片分类到不同的类别。当咱们被要求基委内瑞拉地图,机器学习算法与社会小看成见,nico于受维护进行猜测时,咱们该怎么做才干恪守反小看法令?

咱们怎么保证咱们不会将种族主义、性别小看或其他潜在的成见嵌入咱们的算法中,不管是清晰仍是暗示?

你或许并不会感到惊奇的是,美国在这个问题上现已有过几起重要的诉讼案子,其间最有目共睹的或许是触及Northpointe有争议的COMPAS--代替性制裁的惩教罪犯办理概略这个软件,它能够猜测被告将犯下另一个违法案子的危险。专有算法考虑了137项问卷中的一些答案来猜测这种危险。

2013年2月,Eric Loomis被发现驾驭一辆用于拍照的轿车。他被捕并供认逃避一名军官。在判定他时,法官不委内瑞拉地图,机器学习算法与社会小看成见,nico仅要检查他的违法记载,还要看一个名为COMPAS的东西分配的分数。

COMPAS是现在在美国各地用于猜测暴力违法热门的几种危险评价算法之一,确认罪犯或许需求的监督类型,或许供给或许对量刑有唐树龙用的信息,如 - 如Loomis案。COMPAS将他列为重新违法的高危险,而Loomis被判处六年徒刑。

他对判定提出委内瑞拉地图,机器学习算法与社会小看成见,nico上诉,理由是法官在考虑算法的成果时,其内部作业是隐秘的,无法检查,违反了正当程序。上诉到了威斯康星州最高法院,法院指出,假如COMPAS从未被咨询过,判定也将是相同的。可是,他们的判定运用了敦促算法

能够了解的是,这个事例在机器学习界引起了不小的颤动。

争议愈演愈烈

到现在为止,咱们所评论的仅仅一个据称是不公平的人,据称他被一种算法严峻地判别。可是,当咱们快进iguxuan到2014年时,这个软件背面的争议会变得愈加重烈。

在几个更南京杜爱欣有争议的成果被吐出算法并仔细检查后,它再一次引起了大众的留意。

然后,美国司法部长埃里克霍尔德正告说,危险评分或许会向法院注入成见。他呼吁美国量刑委员会研讨其运用状况。

"虽然这些办法是出于最好的目的而拟定的,但我忧虑它们会无意中损坏咱们保证个性化和相等正义的尽力,"

他弥补说,

"它们或许会加重咱们现已十分遍及的无依据和不公平的差异,在刑事司法体系和咱们的社会。"

可是,量刑委员会没有展开危险评分研讨。因而,ProPublica作为对美国日子中算法的强壮调查。

ProPublica的检查得出了一些风趣的定论。不只算法荒唐地不精确(不到20%的猜测是真的),还表现出显着的种族差异,正如霍尔德所忧虑的那样。在猜测谁会再次违法时,该算特别污的日本漫画图片法以大致相同的速度但以十分不同的办法对是非被告犯了过错。

  • 这个公式特别简略将黑人被告作为未来的罪犯,将他们过错地贴上标签,这几乎是白人被告的两倍。
  • 白人被告被误标为低危险,比黑人被告更频频。

黑人被告被钉住的或许性仍高出77%,由于未来暴力违法的危险更高,估量未来犯下任何罪过的或许性高45%。

这或许听起来很糟糕,但这个故事还有许多东西要比眼睛看到的要多。依据咱们剖析这个的办法,咱们能够发现算法既是种族主义又不是种族主义,它取决于咱们在模型中界说"相等"的办法。关于本文的其余部分,我将测验协助咱们了解这个模型实际上是以可接受的办法规划的,但仍然能够发作据称的种族主义成果。

小看的类型

咱们首要需求界说算法中或许存在的小看类型,以及咱们在前面的示例中处理的类型。咱们将两种办法的小看称为不同的影响不同的待遇

不同的待遇 - 触及以不允许的办法对或人进行分类。它触及小看的目的,通过清晰提及集体成员资历来证明。

不同的为什么尼彩卢洪波判刑影响 - 检查分类/决议计划对某些集体的影响。不需求任何目的,它是面向中立的。

不同的影响一般被称为无意识的小看,而不同的处理则是成心的。

最高法院以为对特定集体发作不成比例影响的做法假如"根据合理的商业考虑",则不会形成不同的影响。

在考虑以下任何受维护特点时,或许会导致不同的处理或不同的影响。

一切这些特点都能够用作咱们的机器学习算法中的特征,因而咱们的算法有或许在这些特点的根底上进行区别。一些常见的比如是面部辨认,累犯(如前所述)和招聘。咱们能够做些什么来协助处理这个问题?

练习数据中的小看性成见

当分类和决议计划根据不精确的信息时,小看会影响社会商品(例如,以为7英尺以上的每个人都是欠好的保姆)。这些主意常常被人类成见所连续,并嵌入用于练习算法的数据中。

在这种状况下,机器学习算法不会减轻人的误差。现实上,它们是在所制造的分类中仿制的。为什么会这样?像Northpointe软件那样的累犯分数是根据从前的拘捕,第一次差人联络的年纪、爸爸妈妈的拘禁记载。

这些信息是由世界上的成见(例如来自文化价值观和民族主义)和更遍及的不公平(例如种族成见)所刻画的。

这种成见也存在于自然语言处理中,其重视于文本数据。这方面的一个很好的比如是题为"人是计算机程序员,由于女人是家庭主妇?Debiasing Word Embeddings",它显现了软件向量中主动生成的类比,例如男性→计算机程序员,女人→家庭主妇。这些反映了原始文本中的性别小看。

更一般地说,这些成见来历一般来自:

  • 过度抽样和欠抽样
  • 歪斜的样品
  • 特征挑选/有限特征
  • 署理/冗余编码
  • 世界上的成见和不公平

那么咱们怎么消除这些成见呢?机器学习算法能够使小看永久化,由于它们是针对有成见的数据进行练习的。处理计划是辨认或生成无偏的数据集,从中能够得出精确的归纳。

消除成见

种族,性别和社会经济阶级等特征决议了咱们与某些绩效使命的成果相关的其他特征。这些都是受维护的特点簿本app,但它们仍委内瑞拉地图,机器学习算法与社会小看成见,nico然与某些功用使命相关 - 而功用使命则是假定的交际产品。例如:

  • 白人家庭的均匀财富是黑人家庭均匀财富的七倍。
  • 财富与您是否能够归还借款有关。
  • 财富的差异取决于前史和现在的不公平。

机器学习本质上是前史的。为了有用冲击小看,咱们需求改动这些形式。可是,机器学习强化了这些形式。因而,机器学习或许是问题的一部分。

"即便前史是一个向正义歪斜的弧线,机器学习也不会屈从。"

那么,咱们该何去何从?咱们注定要有种族主义和性别小看的算法吗?

即便咱们优化精确性,机器学习算法也或许使小看永久存在,即便咱们运用无成见的数据集进行作业而且锦衣卫夺妻之路具有考虑社会商品的功用使命。咱们还能做些什么?

  • 次序学习
  • 更多理论
  • 因果建模
  • 优化公平

在一切这些中,优化公平好像是最简略和最好的举动计划。鄙人一节中,咱们将概述怎么优化模型以完结公平性。

优化公平

构建优化非小看的机器学习算法能够通过以下四种办法完结:

  • 将非小看规范正式化
  • 人口相等
  • 均衡赔率
  • 通过杰出校准的体系

咱们将顺次评论这些问题。

将非小看规范正式化基本上是其他3种办法所触及的规范,它们是旨在使非小看规范正式化的规范类型。可是,这份清单并非翔实无遗,或许还有更好的办法没有提出。

人口平价提出决议计划(方针变量)应独立于受维护的特点 - 种族,性别等与决议计划无关。

关于二元决议计划Y和受维护特点A:

P(Y = 1 | A = 0)= P(Y = 1 | A = 1)

不管受维护的特点(不管是(A = 1)仍是(A = 0)),做出某些决议的概率(Y = 1)应该是相同的。可是,人口统计奇偶校验运用完美猜测器C = Y,其间C是猜测变量,Y是方针变量。

要了解贰言,请考虑洗衣屋以下状况。假定咱们想要猜测一个人是否会购买有机洗发水。某些集体的成员是否购买有机洗发水并不独立于该集体的成员资历。可是,人口统计相等将扫除运用完美猜测器。

均衡赔率主张猜测变量和受维护特点应该是独立的,以成果为条件。关于猜测变量R,成果Y和受维护特点A,其间一切三个都是二进制变量:

P(R = 1 | A = 0,Y = 1)= P(R = 1 | A = 1,Y = 1)。

该特点(不管是(A = 1)仍是(A = 0))不应该改动您的估量(P),即某个相关猜测因子(R = 1)对候选者是否建立的或许性。相反,(某些决议的)成果(Y = 1)应该。该进程的一个长处是它与抱负猜测器兼容,R = Y.

考虑以下事例,让学生被耶鲁大学选取,由于他们是高中时的离别演说者。均衡赔率假定知道学生是否是同性恋并不会改动学生是否是离别演说者的概率。

猜测者R =您是否是高中离别演说者(1)或不是(0)

成果Y =进入耶鲁(1)与否(0)

特点A =同性恋(1),直(0)

P(R = 1 | A = 0,Y = 1)= P(R = 1 | A = 1,Y = 1)。

通过杰出校准的体系主张成果和受维护特点是独立的,以猜测器为条件。关于猜测变量R,成果Y和受维护特点A,其间一切三个都是二进制变量:

P(Y = 1 | A = 0,R = 1)= P(Y = 1 | A = 1,R = 1)

某些成果发作的概率(Y = 1)应该不受某些受龙在边际全文阅览维护特点(不管是(A = 0)仍是(A = 1))的影响,而应该以相关猜测因子(R = 1)为条件。这种配方的优势在于它不会意识到 - 它让每个人都遵从相同的规范。

与之前的比如比较,知道学生是同性恋并不会改动学生是否进入耶鲁的或许性。均衡赔率和通过杰出校准的体系之间的区别是奇妙的,但很重要。

现实上,这种差异是咱们在开端时评论的COMPAS软件不一致的根底。

那么CO苏文漪MPAS种族主义者呢?

均衡的赔率和通过杰出校准的系各色夫郎齐上堂统是互不兼容的规范。有时分,鉴于某些经历环境,咱们不能让体系得到很好的校准和均衡。让咱们来看看ProPublica和Northpointe之间关于COMPAS是否倾向黑人被告的争辩中的这一现实。

Y =被告是否会重新违法

A =被告的种族

R = COMPAS运用的累犯猜测因子

Northpointe的防护: COMPAS通过杰出校准,即

P(Y = youtb1 | A = 0,R = 1)= P(Y = 1 | A = 1,R = 1)。

COMPAS体系对被告进行大致类似的累犯猜测,不管其种族怎么。

ProPublica的回应: COMPAS对黑人被告的假阳性率较高,对白人被告的假阴性率较高,即不满足相等赔率:

P(R = 1 | A = 0,Y = 1)≠P(R = 1 | A = 1,Y = 1)

被告的种族关于个人是处于低危险仍是中/高危险类别有所不同。不管是(A = 0)仍是(A = 1),COMPAS现已确认一些累犯危险猜测因子将被告(P(R = 1))的概率有所不同,而不只仅是被告是否会赢得'重新违法(Y = 1)。

为什么会这样?

当某些经历现实建立时,咱们具有杰出校准和赔率均衡体系的才能就会溃散。好像发作问题的是咱们之前评论的问题:由不公平形成的布景现实。例如,由于更高的差人检查,被捕获再次违法率更高。

很难弄清楚何时适用某些公平规范。假如某些规范没有为其他规范付出代价,那么当你不确认时,你会更少忧虑应用它。可是,由于状况并非如此,咱们需求了解未到达某些规范的影响。

那么咱们评论的哪个规范最好挑选?一切这委内瑞拉地图,机器学习算法与社会小看成见,nico些办法都具有很好的功用,但都有其缺陷。

所以现在怎么办?xi呆呆

咱们不能在一个小角落里爱惟侦办区分公平,而不是为了改动世界上的不公平和在机器学习体系之外发作的小看。这并不意味着咱们什么都做不了!咱们有必要为某些范畴的公平性拟定一些规范,一起尽力改动基准利率。

虽然存在一些争议以及其间一些人不受欢迎,但COMPAS软件仍在持续运用。开发算法的人不会由于在不知不觉中开发种族主义算法而被指控或拘禁,委内瑞拉地图,机器学习算法与社会小看成见,nico但有必要挑选一些规范来根据COMPAS企图处理的状况进行猜测。

它或许是一个算法,它或许不完美,但它是一个开端,一个人有必要从某个当地开端。

机器学习有顾宪明助于削减小看吗?

机器全城嘿咻学习是一个十分强壮的东西。跟着人类开端从人文主义转向数据主义视角,这种状况越来越显着 - 咱们开端更多地信赖算法和数据,而不是人或咱们自己的主意。

这使得咱们尽或许使算法尽或许不偏不倚,这样他们就不会在不知不觉中使前史数据中嵌入的社妮莎柯比会不公平永久化,这一点十分重要。可是,运用算法发明一个更公平和相等的社会也有巨大的潜力。一个很好的比如便是招聘进程。

假seednet设您正在申请您的愿望作业,而且正处于面试进程的终究阶段。招聘司理有权决议您是否被选用。您是否想要一个无成见的算法来决议您是否是最适合这份作业的人?

假如你知道招聘司理是种族主义者,你还会喜爱这个吗?仍是性别小看?

或许招聘司理是一个十分中立的人,而且朴实根据绩效来完结作业,可是,每个人都有自己的倾向和潜在的认知误差,这或许使他们更有或许挑选他们最喜爱委内瑞拉地图,机器学习算法与社会小看成见,nico的提名人,而不是最好的人。

假如能够开发无成见的算法,招聘进程或许变得更快,更圆圆大光头廉价,他们的数据或许会招聘更多技能娴熟的人,这些人更适合他们的公司。另一个潜在的成果:更多样化的作业场所 该软件依赖于数据来表达来自各式各样的当地的提名人,并将他们的技能与作业要求相匹配,没有人为的成见。

这或许不是完美的处理计划,现实上,在司法方面很少有完美的答案。可是,前史的弧线好像倾向于正义,所以或许这将使正义向前跨进一步。

另一个很好的比如是主动借款承销。与传统的手艺承保比较,主动承保更精确地猜测或人是否会违约借款,其更高的精确性会导致更高的借款人同意率,尤其是关于效劳缺乏的申请人。这样做的成果是,有时分机器学习算法比咱们做出最精确的分类做得更好,有时分这能够处理招聘和信誉批阅等范畴的小看问题。

引证一句谷歌报导的文章:

"优化机会相等仅仅可用于改善机器学习体系的很多东西之一 - 仅靠数学不太或许带来最佳处理计划。进犯机器学习中的小看终究需求采纳慎重的多学科办法。"

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。