首页 » 神马SEO » 定边seo公司_当谈论机械进修中的公平公正时我们该谈论些什么

定边seo公司_当谈论机械进修中的公平公正时我们该谈论些什么

访客 2024-11-08 0

扫一扫用手机浏览

文章目录 [+]

剖析师:仵冀颍

编辑: Joni Zhong

定边seo公司_当谈论机械进修中的公平公正时我们该谈论些什么 定边seo公司_当谈论机械进修中的公平公正时我们该谈论些什么 神马SEO

本文谈论的是机器学习中的公正公道问题(Bias and Fairness in Machine Learning),那么,究竟什么是机器学习中的公正公道呢?

定边seo公司_当谈论机械进修中的公平公正时我们该谈论些什么 定边seo公司_当谈论机械进修中的公平公正时我们该谈论些什么 神马SEO
(图片来自网络侵删)

随着人工智能系统和运用程序在我们日常生活中的广泛运用,人工智能已经成为了赞助人们决策的主要工具,例如,利用推举系统算法做出电影推举、购买产品推举等,利用预测和剖析系统用于贷款申请、约会和雇佣等高风险决策。
美国法院利用了一款人工智能软件—「选择性制裁罪犯管理档案」(Correctional Offender Management Profiling for Alternative Sanctions,COMPAS),用于预测一个人再次犯罪的风险,赞助法官决定是开释罪犯,还是把罪犯关进监狱。
对该软件的一项调查创造了对非洲裔美国人的一种偏见:相较于白人罪犯,COMPAS 更有可能给非洲裔美国人罪犯打出较高的潜在风险分数,从而不予以开释 [1]。

有偏的演习数据集一样平常被认为是影响机器学习公正公道的主要成分之一。
大多数机器学习模型都是通过在大型有标记数据集上演习得到的。
例如,在自然措辞处理中,标准的算法是在包含数十亿单词的语料库上演习的。
研究职员常日通过抓取网站 (如谷歌图像和谷歌新闻)、利用特定的查询术语,或通过聚合来自维基百科 (Wikipedia) 等来源的易于访问的信息来构建此类数据集。
然后,由研究生或通过 Amazon Mechanical Turk 等众包平台对这些数据集进行注释和标记。

在医学领域,由于医疗数据的天生和标记本钱非常高,机器学习特殊随意马虎受到有偏见演习数据集的影响。
去年,研究职员利用深度学习从照片中识别皮肤癌。
他们对 129,450 张图像的数据集进行演习,个中 60% 是从谷歌图像中提取的。
在这个数据集中只有不到 5% 的图像是深肤色的个体,而且该算法没有在深肤色的人身上进行测试。
因此,将该深度学习分类器运用在不同的种群中可能会存在巨大的差异。

用于图像分类的深度神经网络常日是在 ImageNet 上演习的,ImageNet 是一套包含 1400 多万张标记图像的凑集。
ImageNet 中 45% 以上的数据来自美国,而美国人口仅占天下人口的 4%。
与此形成比拟的是,只管中国和印度的人口占天下人口的 36%,但两国在 ImageNet 的数据中只占 3%。
在这样的数据集中演习得到的打算机视觉模型,把传统的美国新娘穿着白色衣服的照片标记为「新娘」、「服装」、「女人」、「婚礼」,而把印度北部新娘的照片标记为「行为艺术」和「服装」。
图 1 是 Nature 上一篇宣布中给出的一幅图片,在有偏数据集上演习的算法常日只将左侧的图片识别为新娘 [2]。

图 1. 在有偏数据集上演习的算法常日只将左手图像识别为新娘 [2]

影响机器学习公正公道的其余一个主要成分是机器学习算法本身。
一个经典机器学习的算法总是试图最大限度地提高在演习数据集中的总体预测精度。
如果一组特定的个体在演习数据集中涌现的频率高于其他个体,那么算法将会针对这些个体进行优化,从而提高算法整体准确度。
在实验环境下,研究职员利用测试数据集进行评估以验证算法的有效性,但是测试集常日是原始演习数据集的随机子样本,因此可能包含相同的偏见。

为了确保机器学习的公正公道,研究职员认为紧张有三种路子:一是提高用于演习机器学习算法的数据质量,公正、广泛的网络不同来源的数据,利用标准化的元数据系统地标注演习数据集的内容。
二是改进机器学习算法本身。
整合约束条件,从实质上使得机器学习算法在不同的子群体和相似的个体之间实现公正的性能;改变学习算法,减少对敏感属性的依赖,比如种族、性别、收入——以及任何与这些属性干系的信息。
三是利用机器学习本身来识别和量化算法和数据中的偏见,即开展人工智能审计,个中审计职员是一个别系地探测原始机器学习模型的算法,以识别模型和演习数据中的偏见。

本文重点评论辩论机器学习中算法的公正公道问题,我们选择了 ICML 2019 的三篇文章,分别针对机器学习领域中的图嵌入问题、回归问题,以及自然措辞处理领域中的措辞模型问题展开了谈论。

1、Compositional Fairness Constraints for Graph Embeddings

https://arxiv.org/pdf/1905.10674v1.pdf

本文是 Facebook 揭橥在 ICML 2019 中的一篇文章,针对现有的图嵌入(Graph Embedding)算法无法处理公正约束的问题,例如确保所学习的表示与某些属性 (如年事或性别) 不干系,通过引入一个对抗框架来对图嵌入履行公正性约束。
本文的研究内容属于 (社会) 图嵌入和算法公正性研究的交叉领域。

学习图中节点的低维嵌入是目前最前辈的运用于预测和推举系统的方法。
在实际运用中,特殊是涉及到社交图的运用中,须要有效掌握学习到的节点嵌入中所包含的信息。
以推举系统为例,人们希望能够担保推举是公正的而不依赖于用户的种族或性别,此外,也希望能够在不暴露自身属性的条件下学习节点嵌入表示以担保隐私。
本文的事情聚焦于对社会图(Social Graph)加入不变性约束的可行性,即天生对特定敏感信息 (例如,年事或性别) 不变的图嵌入。
首先演习得到一组「过滤器」,以防止对抗式的甄别者将敏感信息与过滤后的嵌入信息进行分类。
然后,将过滤器以不同的办法组合在一起,灵巧天生对任何敏感属性子集不变的嵌入。
方法的整体构造见图 2。

图 2. 方法整体构造

早期关于在社会类运用中增加逼迫不变性约束 (或「公正性」) 的事情常日只涉及一个敏感属性的情形,但是实际运用中常日社会图嵌入会涉及到多个属性。
在极度情形下,可能希望不但是节点,乃至是图中的边(edge)也具备公正性,例如,一个社交网络平台上的用户可能希望该平台的推举系统忽略他们与某个其他用户是朋友,或者他们参与了某个特定内容的事实。
本文提出的方法通过学习得到一组对抗性过滤器,从而删除关于特定敏感属性的信息。

首先,考虑嵌入一个异质或多关系 (社会) 图 G = (V, e),G 包含有向边三元组 e= < u,r, v >,个中 u, v∈V 为节点,r∈R 表示节点间的关系。
假定每个节点都属于一个特定的种别,节点间的关系受到节点类型的约束。
基于图的关系预测任务描述如下:ξ_train 表示演习边凑集,定义负边凑集如下:

负边凑集表示未在真实图 G 中涌现的边的凑集。
给定ξ_train,目标是学习得到评分函数 s 以知足:

换句话说,学习得到的评分函数在空想情形下该当对任何真边缘评分高于任何假边缘。

图嵌入(Graph Embedding)的任务目标是通过学习一个映射函数 ENC 来完成关系预测任务,即将节点 v 映射为节点嵌入 z_v=ENC(v)。
此时评分函数为:

评分函数的含义为:给定两个节点嵌入 z_u ∈ R.^d 和 z_v∈ R.^d,以及它们之间的关系 r ∈ R,评分函数 s 表示边 e=<u,r,v> 在图中存在的概率 ( s∈ R)。
常日来讲,基于图嵌入模型的方法紧张因此为两个节点嵌入间的间隔能够表征两个节点间存在边的可能性。
本文利用噪声比拟估计等毁坏分布的比拟学习方法来优化评分函数,目的是最大化真实边(正样本)与虚假边(负样本)比拟的概率。
个中,边(e_batch ⊆ e_train)的丢失函数打算为:

以及

表示负样本,例如,不存在于图中的随机样本边。

考虑公正性的处理,对一个节点类型,假设属于该类型的全部节点都包含有 K 组敏感属性,那么对图嵌入模型进行公正性处理的任务便是确保所学习的节点嵌入 (z_u) 在这些敏感属性方面不存在偏见或不公正。

不变的实用公正性

本文给出了一个大略的以用户为中央的社会图嵌入场景。
以性别为敏感属性、电影推举为关系预测任务的例子,详细任务场景如下:如果给用户一个按钮,上面写着「推举电影时请忽略我的性别」,那么按下这个按钮后,用户希望从系统中得到什么?很显然,用户 u 的目的是系统能够不考虑他们的性别公正地向他(她)推举电影,即如下式:

个中 s(e) = s(<z_u, r, z_v>),a_u 为敏感属性。
如果直接处理上式,我们能够创造一个明显的问题,即对付每一个节点都须要对它的全部边(可能是数以百万计)进行评分。
假设认为 s(e) 仅由 u 决定(忽略掉节点 v 的影响),则可以通过履行表征不变性来担保上式对付所有边缘预测的独立性:

此时知足互信息(mutual Information):I(z_u,a_u)=0。
推广到多个敏感属性 S⊆ {1,...,K}:

上式相称于对 S 个不同敏感属性的 S 独立不变性约束的假设。
针对本文所谈论的运用处景,S 不是固定不变的。
对付不同的用户来说,他们以是为的敏感属性可能不同(年事,职业,性别等等)。
基于上述剖析,本文在上式中引入一种对抗性丢失和一种「过滤」嵌入,从而对节点嵌入施加表征不变性约束。

复合编码器

首先,将 ENC 嵌入函数泛化,以选择性地「过滤」掉有关某些敏感属性的信息。
对每一个敏感属性 k∈{1,...,K},定义一个过滤函数 f_k,通过演习 f_k 能够去除掉与敏感属性 k 有关系的信息。
为了担保节点嵌入的不变性,本文利用复合编码器组合过滤后的嵌入:

在组合映射函数(C-ENC)的演习迭代过程中,每轮迭代都通过采样二进制掩码来确定凑集 S。
本文将二进制掩码采样为一个固定概率 p=0.5 的伯努利序列。
在演习过程中,随机采样得到的二进制掩码能够使得模型产生不同敏感性属性组合的不变嵌入,从而实现在推理过程中推广到未知的组合。

对抗丢失

本文引入对抗正则项演习复合编码器 Dk。
为每个敏感属性 k 定义一个分类器 D_k,目的是通过节点嵌入预测第 k 个敏感属性 D_k : R^d × A_k → [0, 1],个中,D_k 的概率区间为 [0,1]。
给定边预测丢失函数 L_edge,对抗正则化丢失函数为:

个中,λ掌握对抗正则项的强度。
为了在小批量设置的情形下优化该丢失,本定亲义两种交替实行的随机梯度低落更新方法:(1)T 小批量更新:基于 C-ENC(Dk 恒定不变)优化 L(e);(2)T』小批量更新:基于 Dk(C-ENC 恒定不变)优化 L(e)。

本文在三个数据库中进行实验,Freebase15k-237、MovieLens-1M,以及从 Reddit 中整理得到的边缘预测数据库。
三个库的统计信息如表 1 所示(详细包括全部节点数量(|v|),带有敏感属性的节点数量(|T|),敏感属性的数目及其类型和图中边缘的总数):

表 1. 数据库详细情形

(1)FREEBASE15K-237

FREEBASE15K-237 是一个标准的知识基准库 [9],本文利用该库评估对抗正规化的影响,在完成标准的知识库任务的同时,保持实体嵌入与「敏感」属性标签的不变性。
在本库中,确定三个常见的属性标签:/award/award_nominee,作为敏感属性。

在实验过程中,本文采取联合演习主模型和对抗框架的办法,但在测试不变性时,本文演习一个新分类器 (与鉴别用具有相同的能力) 从所学习的嵌入中预测敏感属性。
此外,在这些实验中,本文依赖于两个基线:首先,比拟不包含任何不变性约束的基线方法,即λ= 0。
其次,与一种非复合对抗的基线方法进行比拟,即分别演习 K 个不同的编码器和 K 个不同的对抗框架。
利用 Relu 激活函数的多层感知机(Multi-layer perceptrons,MLP)作为分类器 Dk 和过滤器 f_k[7]。
利用 TransD 方法打算编码器和边缘预测丢失函数 [8]。
在这个模型中,一个节点/实体的编码取决于预先决定的边缘关系,以及该实体是一个关系中的头还是尾。
头节点的嵌入 (即边关系中的源节点) 由下式打算:

个中,u、u_p、r_p 为可演习的嵌入参数,I 为 d 维单位矩阵。
编码函数对尾部节点进行了类比定义。
评分函数定义为:

个中,r 为其余一个可演习的嵌入参数(每个关系)。
末了,利用标准的最大边际丢失函数如下:

(2)MOVIELENS-1M

MOVIELENS-1M 是一个标准的推举系统数据库,其目标是预测用户对电影的评分,将用户年事、性别和职业作为敏感属性。
在本库中的任务可以做如下描述:将电影推举任务视为用户和电影之间的边缘预测问题,将不同的可能评级视为不同的边缘关系。

在本库中的实验采取大略的「嵌入-查找(Embedding-Lookup)」编码器,将每个用户和电影与一个唯一的嵌入向量关联起来。
评分阶段,利用对数似然法打算如下:

个中,关系矩阵 Qr 为:

个中,a_r,1、P1、P2 均为可演习的参数。
丢失函数利用大略的负对数似然法。

(3)REDDIT

本文末了利用的数据库是基于 REDDIT 获取的,REDDIT 是一个广受欢迎的、以谈论为根本的网站,用户可以在这里对不同话题社区的内容进行发布和评论。
对付这个数据集,考虑一个传统的边缘预测任务,其目标是预测用户和网站社区之间的交互情形。
通过检讨 2017 年 11 月以来的所有情形,如果用户在这段韶光内至少在某社区涌现过一次,就会在该用户和该社区之间设置一个边。
然后,将图中的低分数节点去掉,终极得到一个包含 366K 个用户、18K 个社区、7M 边缘的图。
基于该图,实验的紧张任务是构建边缘预测模型,基于 90% 的用户-社区边缘情形预测剩余的缺失落边缘。

将某些社区节点看作是「敏感」节点,将是否与这些敏感社区有边缘连接看作是用户的敏感属性。
所谓的公正性目标是指模型的预测结果不受用户是否访问过某特定社区的情形影响。

在本数据库中的实验采取的是大略的「嵌入-查找(Embedding-Lookup)」编码器,利用大略点积评分函数:

以及最大边际丢失函数:

末了,本文给出了三类公正性实验,

Q1:不变性的本钱

为了量化学习到的嵌入对敏感属性的不变性程度,冻结编码器 C-ENC、演习一个新的 MLP 分类器预测每个过滤后嵌入的敏感属性。
此外,评估利用这些过滤嵌入对原始预测任务的性能。
空想情形下,演习得到的新 MLP 应该能够在预测敏感属性时具有随机准确性,此外,这些嵌入能够较好地完成原有的边缘预测任务。

总的来说,本文实验结果表明,在社会推举数据集上,包括 MovieLens-1M 和 REDDIT,本文的方法能够实现一个合理的折衷,即险些完备删除敏感信息,同时担保边缘预测任务的相对偏差只增加约 10%。
表 2 给出在利用各种嵌入方法时,预测 MovieLens 数据上的敏感属性的情形。
由表 2 结果可知,敏感属性的分类准确度与多数投票分类器的分类准确度相称,利用组合对抗框架的 RMSE 从 0.865 低落到 1.01。
表 3 给出了利用不同方法完成 Freebase15k-237 库中预测敏感属性能力的实验结果。
所有的敏感属性都是二进制的,表 3 给出了 AUC 分数以及完成紧张边缘预测任务的均匀秩。
Freebase15k-237 库中的实验结果显示,如果想要肃清敏感信息,必须以增加原始边缘预测任务本钱为代价。
这个结果是可接管的,由于对付这个数据集,「敏感」属性是由实体类型注释合成得到的,这些属性与边缘/关系预测主任务高度干系。
这一实验结果也表明,基于图嵌入的方法进行去偏处理是存在潜在局限性的。

表 2. 预测 MovieLens 数据上的敏感属性的情形

表 3.Freebase15k-237 库中预测敏感属性的能力

Q2:复合框架的影响

由表 2 中的实验结果可以看出,本文提出的复合框架效果优于单独对每一种属性进行去偏处理的效果。
与单独基于每种敏感属性进行对抗正则化嵌入模型演习比较,利用复合框架能够去除掉更多的敏感信息,这是由于在数据库中不同的敏感属性,例如年事、性别和职业,是相互关联的。
图 3 给出预测 REDDIT 数据集中敏感属性的能力,个中条形图对应于 10 个二进制敏感属性的均匀 AUC。
与表 2 实验给出的结论不同,在 REDDIT 库中,复合框架的效果并不如单独处理每个敏感属性的好。
这解释,本文提出的复合对抗性框架效果受到不同的数据库特性影响。

图 3. 利用不同嵌入方法时,预测 Reddit 数据集中敏感属性的能力

Q3:对未知敏感属性组合的不变性

利用复合编码器的一个上风在于能够天生对不同敏感属性组合不变的嵌入。
对付一个单独的节点,能够天生 2^K 个独立的嵌入。
本文在 REDDIT 库中进行实验,这是由于与其余两个库比较 REDDIT 库的敏感属性数量最多。
由图 3 中的实验可知,本文提出的方法对付未知组合的实验效果低落很小(0.025),表明该方法具有对未知敏感属性组合的不变性。

小结

基于图节点嵌入的图表示学习是大规模推举系统中广泛运用的一种主要方法,本文重点谈论的是基于图嵌入算法的去偏处理。
该方法目前还存在很多局限性,一是,本文利用的对抗丢失函数仅勾留在理论剖析层面,近期的研究中陆续提出了其他丢失函数,包括非对抗的丢失函数,这些丢失函数是否更适宜于本文所谈论的问题,还短缺进一步的剖析;二是,本文谈论的是针对属性层面凑集的公正性问题,对付一些子凑集(由多个属性组成的凑集)层面的公正性问题,并未涉及;三是,本文是在空想实验条件下对不同属性进行的组合,这种空想条件假定的是不同属性具有公正的组合机会。
然而在实际运用处景中,用户本身便是有偏见的,例如与男性用户比较,女性用户搜索时会着重考虑搜索结果是否是性别公正的,这种用户接口的偏见是否会对本文提出的框架有所影响,本文并未做谈论。

2、Fair Regression: Quantitative Definitions and Reduction-Based Algorithms

https://arxiv.org/pdf/1905.12843.pdf

随着机器学习涉及到我们生活中越来越主要的方面,包括教诲、医疗、刑事法律和贷款等,越来越多的人开始关注如何确保算法公正地对待不同的亚群体用户。
这一问题,在「分类」这一机器学习运用领域中的研究和谈论最为广泛,近年来已经提出了一些衡量公正度的定量指标,由此产生了一系列旨在知足这些哀求的算法。
然而,这些算法紧张适用于离线以及小的决策问题,例如招聘、学校录取、贷款吸收/谢绝决策问题。
在实际问题中,更多的分类算法是哀求评估一个连续的问题,比如事情是否成功、大学一年级的均匀绩点成绩,以及放贷的违约风险。
因此,已有的关于公正分类的算法适用范围相称有限。

本文的研究目的是提出一种与原有算法比较适用范围更广泛的、回归任务和模型类的算法。
本文将分类问题考虑为一个实值目标预测问题(Predicting a Real-Valued Target),同时利用一个任意 Lipschitz 连续丢失函数来度量预测质量。
每个样本中都包含有一个受保护的属性,例如种族、性别,算法的目标是担保这些属性的公正性。
本文紧张研究两类公正问题:统计奇偶性 (Statistical Parity,SP),预测结果在统计上依赖于受保护的属性;有界群体丢失 (Bounded Group Loss,BGL),任何受保护群体的预测偏差都低于某个预先指定的水平。
本文将公正回归(Fair Regression)定义为在这些约束条件下最小化实值预测的预期丢失任务。
针对两类公正问题,本文提出了不同的算法:对付 BGL,本文提出在每个子种群中,受丢失约束的丢失最小化问题可以通过算法简化为一个加权丢失最小化问题。
对付 SP,如果我们将实值预测空间离散化,那么在一定的约束条件下,公正回归的任务可以简化为代价敏感的分类问题。

假定我们要办理的是一样平常的数据预测问题,模型输出值是实数。
我们首先定义丢失函数。
假定演习样本为 (X,A,Y),个中,X 为特色向量,A 为受保护的属性(有限值),Y 为标记,X 为连续高维向量。
A 可属于 X 也可不属于,Y 可为连续值也可为离散值。
给定一个预测函数 f:X→[0,1],算法目标是给定 X,找到知足公正性原则(SP/BGL)的能够准确预测 Y 的预测函数 f。
与之前算法谈论的问题不同,Y 和 f(X)都为实值函数。
f(X) 预测 Y 的准确度由丢失函数 l(Y,f(X)) 衡量。
一样平常性地,丢失函数哀求知足 l1 范数的 1-Lipschitz 约束:

公正性定义

本文中进行公正性分类和回归过程,利用了两个基本的定量统计定义:

SP (Statistical parity):预测函数 f 如果独立于某个受保护的属性 A,即预测函数 f 知足 (X,A,Y) 上分布的统计奇偶性,与受保护属性无关,我们就说该函数知足 SP 哀求。
当 f(X)∈[0,1] 时,我们有:P[f(X)≥z|A=a]=P[f(x)≥z]。

BGL(Bounded group lost):如果对付每个受保护的属性 A 来说,预测丢失都低于某一预先确定的值,这个函数 f 知足于 BGL。
以语音或人脸识别任务为例,这一公正性哀求表示所有的组别都能得到较好的识别效果。
当 E[l(Y,f(X))|A=a]≤ζ,我们得到预测水平为ζ的预测函数 f。

公正回归(Fair Regression)

公正回归的过程便是在知足 SP 或 BGL 的条件下最小化丢失函数 E[l(Y),f(X)]。
我们须要在该条件的约束下进行优化。

SP:本文设置一个可调值用于掌握公正性的准确度,例如针对每个属性的松弛参数ε_a,此时公正回归任务为:

(1)

BGL:针对每个属性,设定一个约束参数ζ_a,此时公正回归问题为:

(2)

与第一篇论文提到的公正分类相似,为了实现更好的公正性-准确性权衡,这篇论文的作者在公正回归问题中引入一个随机预测因子(Randomized predictors):首先根据分布 Q 选取 f,然后基于 f 进行预测。
基于公式(1)和(2)给出下述符号:

由此得到 SP 的目标函数:

(3)

以及 BGL 的目标函数:

(4)

监督学习示例

本文作者展示了如何将公正回归问题转化为三个标准的学习问题:加权最小二乘回归、在不公正约束下的加权风险最小化(无公正性约束)、本钱敏感分类问题。
加权最小二乘回归的风险优化问题:给天命据集 {(Wi,Xi,Yi)},Wi 为非负权重,f 最优化权重履历风险:

在不公正约束下的加权风险最小化:利用 l 衡量准确度,能够得到针对相同种别 F 的加权最小二乘学习者。
丢失函数为:

本钱敏感分类:给天命据集 {(X^i,,Ci)},个中 X『i,, 为特色向量,Ci 为表征本钱(例如丢失函数)差异。
正值 Ci 表示 0 为最佳,负值 Ci 则表示 1 为最佳。
本钱敏感分类的终极目标为找到能够最优化履历本钱的分类器 h。
给天命据集 {(Wi,X^i,Yi)},当 Yi=1{Ci≤0},以及 Wi=|Ci|,目标函数为:

根据以上,作者就可以做出有 SP 或者 BGL 约束的公正回归算法。

实验结果

本文利用如下数据库进行实验比对:成人库(Adult)、法学院(Law School)、社区和犯罪(Communities&Crime)。
由于前两个库较大,本文也在其子库上进行了实验。
比拟基线算法包括不受任何公正约束的回归,以及来自公正分类和公正回归领域的两个基线算法。
两个基线算法详细为:在任务为最小二乘回归的三个数据集上,本文利用完备本色性机会均等(full Substantive Equality of Opportunity, SEO)[10] 算法作为基线;在两个任务为 logistic 回归的数据集上,本文运行公正分类(Fair Classification,FC)[11] 算法作为基线。

图 4 给出了 SP 约束下的相对测试丢失与最坏约束冲突比拟实验结果,该实验通过从实际丢失中减去最小基线丢失来打算相对丢失。
图 4 给出了 95% 的置信区间来表示本文方法和公正分类(FC)的相对丢失,也给出了 95% 的置信区间来表示约束违反(对所有方法都一样)。
除了 Adult 库中公正分类(FC)效果更好,在其他数据库中本文提出的方法效果都为最优。
此外,本文所提出的方法在减小差距(不公正)的同时,并不会对总体丢失造成严重影响。
本文所提出的方法在全部最小二乘任务中效果都为最优,但在 logistic 回归任务中,效果低于公正分类(FC)。

图 4. SP 约束下的相对测试丢失与最坏约束冲突比拟

小结

本文所提的算法能够有效处理一系列丢失和回归问题,同时在保持总体准确度的同时减小了偏见(差异)。
在本文给出的实验中,公正分类 (FC) 作为 logistic 回归的一个强大基线算法展现出了良好的性能,在一些实验条件下效果乃至优于本文提出的算法。
这表明本文所提出的基于回归的归约启示式方法还存在一些毛病,这也为往后的研究留下了改进空间。

3、Identifying and Reducing Gender Bias in Word-Level Language Models

https://arxiv.org/pdf/1904.03035.pdf

措辞建模(Language Model)是一项非常随意马虎受到性别偏见(Gender Bias)影响的自然措辞处理任务,同时也非常具有实际运用代价,例如屏幕键盘中的单词预测。
本文的研究目的是识别用于措辞建模的演习数据集中的性别偏见,以及减少其对模型行为的影响。
详细来讲,本文的事情是评估性别偏见对付在文本语料库中演习的单词级别的措辞模型的性能影响。

本文首先通过对演习得到的嵌入特色和共现模式进行定性和定量剖析,从而检讨数据集中存在的偏见。
然后,在数据集上演习 LSTM 单词级别的措辞模型,并丈量天生输出的偏见(如图 5 所示)。
第三,运用一个正则化过程,目的是使得模型学习到的嵌入特色最小程度依赖于性别,同时进行独立的对输入和输出嵌入特色的去偏处理。

图 5. 三层 LSTM 模型

剖析用于建立最新措辞模型的公开数据集所显示的性别偏见

本文选择了三个公开数据集进行验证,包括:Penn Treebank (PTB)、WikiText-2 和 CNN/Daily Mail。
PTB 由科学择要、打算机手册、新闻文章平分歧类型的文章组成,个中男性单词的计数高于女性单词。
WikiText-2 由维基百科的文章组成,它比 PTB 更加多样化,因此男女性别词的比例更加平衡。
CNN/Daily Mail 是从体育、康健、商业、生活办法、旅游等主题的各种新闻文章中整理出来的。
这个数据集的男女性别比例更加平衡,相较于前两个数据集来说,存在的性别偏见最小。

本文利用包含 1150 个隐蔽单元的三层 LSTM 单词级措辞模型 (AWD-LSTM) 丈量天生输出的偏见程度[3],利用繁芜度(Perplexity)作为衡量标准。
在对三个公开数据集的验证过程中都得到了合理的繁芜度,分别为 PTB 62.56、Wikitext-2 67.67、CNN/Daily Mail 118.01。

繁芜度(Perplexity)是一种常用的措辞模型评价标准,可以理解为,如果每个韶光步长内都根据措辞模型打算的概率分布随机挑词,那么均匀情形下,挑多少个词才能挑到精确的那个。
即繁芜度(Perplexity)刻画的是措辞模型预测一个措辞样本的能力,通过措辞模型得到一条措辞样本的概率越高,措辞模型对数据集的拟合程度越好,建模效果越好。

剖析性别偏见对基于递归神经网络 (RNNs) 的单词级措辞模型的影响

利用能够表征性别的单词来表示一个单词在高下文中涌现的概率:

个中 c(w,g) 是高下文窗口,g 是一组性别词汇,例如,当 g=f,这样的词包括 he,her,woman 等,w 是语料库中的任何单词,不包括停滞词汇和性别干系词汇。
关于 c(w,g) 的选择,本文采取了固定长度和权重以指数办法递减(0.95)的有限长度窗口大小两种办法进行实验。

定义特定词的偏见分数为:

要对从演习语料库和措辞模型天生的文本语料库中采样得到的文本中的每个单词丈量这个偏见分数,个中,正偏分数意味着该词与女性词汇的搭配频率高于与男性词汇的搭配频率。
在假设无限的语境中,偏见分数应该靠近于 0,例如,「doctor」和「nurse」在对话过程中与男性和女性单词搭配涌现的频率应该一样多。

为了评估每个模型的去偏性,丈量天生的语料库的偏见分数打算如下:

此外,为了估计偏见放大或缩小的改变程度,本文拟合了一个单变量线性回归模型,该模型对高下文单词的偏见评分如下:

个中,β为与演习数据集干系的比例放大丈量值,减小β意味着对模型去偏,c 为上定亲义的 context。
本文利用评估语料库中每个高下文单词的绝对均匀值μ和标准偏差σ来量化偏见的分布:

终极,取绝对偏见分数的均匀值作为评估依据。

减少在这些模型中得到的偏见的方法

前期的研究表明,机器学习技能通过捕捉数据模式来做出连贯的预测,可能能够捕获乃至放大数据中的偏见 [4]。
本文分别对输入嵌入、输出嵌入和同时两种嵌入这三种情形进行了去偏处理。
本文利用的方法为:利用 [5] 中的方法从学习到的输出嵌入中提取一个性别子空间。
然后,根据 [6] 中的方法在单词级别(word level)的措辞模型上演习这些嵌入,而不是利用无偏预演习的嵌入 [6]。

利用 w∈Sw 表示单词嵌入,Di,...,Dn⊂Sw 表示定义集,包括性别词汇对,例如男人和女人。
定义集是为每个语料库单独设计的,由于某些词并不会涌如今所有语料库中。
对付一个演习语料库,同时涌现的与性别干系的相反的词汇,则将它们认定为一个定义集,{ui,vi}=Di。
矩阵 C 是定义集中词汇对之间的差异向量的凑集,词汇对的差异情形表征了性别信息。
对 C 进行奇异值分解处理:

将 V 的前 k 列定义为性别子空间 B=V_1:k。
矩阵 N 由无偏嵌入组成。
如果想让嵌入的偏见最小,那么将其映射到 B 中时,令其 Frobenius 范数的平方值也是最小。
为了减少模型中嵌入层学习到的偏见,在演习丢失中加入以下正则化项:

个中,λ掌握最小化嵌入矩阵 W(N 和 B 推导得到的矩阵)的权重,N 和 C 在模型演习期间迭代更新。

在措辞模型中随机输入 2000 个种子作为开始天生单词的出发点。
利用前面的单词作为措辞模型的输入,并实行多项选择以天生下一个单词,重复该步骤 500 次,终极得到三个数据集对应每个λ的 10^6 个 token。

结果剖析

本文利用 RNN 进行模型演习。
结果见表 4。
数据集的整体偏见可由μ表征,较大的μ表示语料库存在较大的性别偏见。
由表 4 中的实验结果可知,随着λ值增大,μ逐渐减小直至稳定,因此λ的优化存在一个区间。
本文还对单个单词的偏差分数进行了比拟以评估去偏的效果。
β的倾斜程度表示了模型相对付演习语料库的放大或减弱效果,β值的大幅低落表示减弱偏差,反之亦然。
β的负值则假定丢失项没有产生其它影响。
本文给出的实验结果中,λ较大时β也会增大,作者认为这可能是由于模型不稳定所造成的。
此外,对付去偏处理参数μ和σ的影响很小,作者认为它们无法捕获单次级别的改进。
基于上述实验结果,作者推举利用单词级别的评估项,例如β,来评估语料库级别的去偏处理效果的鲁棒性。

表 4. PTB、WikiText-2、CNN/Daily Mail 中的实验结果

表 5 为从 CNN/Daily Mail 的天生语估中选择的目标词汇。
特殊强调与女性干系的词 crying 和 fragile,而一样平常认为与男性干系的词汇 Leadership 和 prisoners。
当λ=0 时,这些偏见非常明显。
对付 fragile,当λ=1.0 时,天生文本中险些没有对女性的词汇提及,从而得到大量的中立文本。
对付 prisoners,λ=0.5 时情形也类似。

表 5. 不同λ值时 CNN/Daily Mail 中的天生文本比较

小结

本文利用了两个不同的指标量化语料级别的性别偏见:绝对均匀值μ和标准偏差σ。
此外,提出了一个用于评估去偏效果的干系矩阵β,作者通过对演习语料库天生的文本语料库中的单词级别的性别偏见进行回归剖析来打算β。

本文提出的方法可以处理措辞模型中单词级别的词分布问题。
该方法的目标是丈量性别偏差,但并不能检测在去偏模型和数据中仍旧存在的显著的偏见。
此外,作者也提出,本文的方法在传统的措辞模型中增加了一个去偏正则化项,这可能会带来繁芜度与偏见处理权衡的问题,例如,在一个无偏的模型中,男性和女性的措辞被预测的概率险些相等,减小性别偏见会导致措辞模型的繁芜度增高。

4、本文总结

随着经合组织的《经合组织人工智能原则》、欧盟《人工智能伦理指南》和《人工智能政策与投资建议》、20 国集团《人工智能原则》以及《北京人工智能原则》等一系列文件的发布,人工智能管理成为了 2020 年广泛关注的议题,本文所磋商的「机器学习中的公正公道」,便是人工智能管理中最关键的问题。

本文对机器学习中的公正公道问题进行了简要回顾,包括数据偏见和算法偏见两类。
在此根本上,本文结合 ICML 2019 中的三篇文章,针对算法偏见分别对机器学习领域中的图嵌入问题、回归问题,以及自然措辞处理领域中的措辞模型问题进行了详细剖析。
目前,关于算法去偏的处理还勾留在理论剖析和实验的阶段,紧张通过引入不同的丢失函数、约束矩阵等约束项弱化模型结果中的偏见,包括第一篇文章中的对抗丢失函数、第二篇文章中的统计奇偶性和有界群体丢失函数,以及第三篇文章中的去偏正则化项等。
算法优化的终极目的是希望加入这些约束项去除偏见的同时,不会严重影响原有机器学习模型的紧张任务性能。

由本文的剖析可知,通过利用去偏算法或模型,能够在一定的实验环境下去除偏见,但并不能担保对所有数据有效。
此外,本文(包括现在已经揭橥的其他文献)磋商的去偏紧张还是集中于性别偏见、种族偏见这一类常见的、随意马虎区分的偏见属性,对付真实运用处景下的繁芜去偏问题,研究之路还很漫长,须要更多的挖掘与探索。

剖析师先容:仵冀颖,工学博士,毕业于北京交通大学,曾分别于喷鼻香港中文大学和喷鼻香港科技大学担当助理研究员和研究助理,现从事电子政务领域信息化新技能研究事情。
紧张研究方向为模式识别、打算机视觉,爱好科研,希望能保持学习、不断进步。

本文中引用的参考文献:

[1] Saxena, Nripsuta, Huang, Karen, DeFilippis, Evan,et al. How Do Fairness Definitions Fare? Examining Public Attitudes Towards Algorithmic Definitions of Fairness. https://arxiv.org/pdf/1908.09635.pdf.

[2] James Zou, Londa Schiebinger, AI can be sexist and racist—it』s time to make it fair. https://www.nature.com/articles/d41586-018-05707-8.

[3] Stephen Merity, Nitish Shirish Keskar, and Richard Socher. 2018. Regularizing and optimizing LSTM language models. In International Conference on Learning Representations.

[4] Jieyu Zhao, Tianlu Wang, Mark Yatskar, Vicente Or-donez, and Kai-Wei Chang. 2017. Men also likeshopping: Reducing gender bias amplification usingcorpus-level constraints. InEMNLP, pages 2979–2989. Association for Computational Linguistics.

[5] Tolga Bolukbasi, Kai-Wei Chang, James Y Zou,Venkatesh Saligrama, and Adam T Kalai. 2016.Man is to computer programmer as woman is tohomemaker? Debiasing word embeddings. In D. D.Lee, M. Sugiyama, U. V. Luxburg, I. Guyon, andR. Garnett, editors,Advances in Neural InformationProcessing Systems 29, pages 4349–4357. CurranAssociates, Inc.

[6] Joel Escud ́e Font and Marta R. Costa-Juss`a. 2019.Equalizing gender biases in neural machine trans-lation with word embeddings techniques.CoRR,abs/1901.03116.

[7] Xu, B., Wang, N., Chen, T., and Li, M. Empirical evaluationof rectified activations in convolutional network.DeepLearning Workshop, ICML 2015, 2015.

[8] Ji, G., He, S., Xu, L., Liu, K., and Zhao, J. Knowledgegraph embedding via dynamic mapping matrix. InACL,2015.

[9] Toutanova, K., Chen, D., Pantel, P., Poon, H., Choudhury,P., and Gamon, M. Representing text for joint embeddingof text and knowledge bases. InEMNLP, 2015.

[10] Johnson, K. D., Foster, D. P., and Stine, R. A. Impartial predictive modeling: Ensuring fairness in arbitrary models. arXiv:1608.00528, 2016.

[11] Agarwal, A., Beygelzimer, A., Dud´ık, M., Langford, J., and Wallach, H. A reductions approach to fair classification. In ICML , 2018.

标签:

相关文章

介绍光源,照亮世界的神奇力量

自古以来,光便被视为生命的源泉。从日出到日落,从星辰到灯火,光无处不在,照亮了我们的世界。而这一切,都离不开光源的神奇力量。本文将...

神马SEO 2024-12-23 阅读0 评论0

介绍制图台,数字时代地图绘制的匠心之作

在数字时代,地图不再只是简单的地理信息载体,而是成为人们出行、工作、生活的得力助手。制图台作为地图绘制的核心工具,承载着无数地理信...

神马SEO 2024-12-23 阅读0 评论0

介绍匿踪符代码,信息安全领域的利剑

在信息爆炸的时代,信息安全已成为社会关注的焦点。作为信息安全领域的重要一环,匿踪符代码技术发挥着越来越重要的作用。本文将带您深入了...

神马SEO 2024-12-23 阅读0 评论0

介绍增塑剂,助力塑料制品,守护环境健康

增塑剂,作为一种重要的化学添加剂,广泛应用于塑料制品的制造中。它能够提高塑料的柔韧性、强度和耐久性,使得塑料制品在日常生活中无处不...

神马SEO 2024-12-23 阅读0 评论0

介绍子宫内膜癌,病因、症状与防治步骤

子宫内膜癌,又称子宫体癌,是女性常见的恶性肿瘤之一。近年来,随着我国人口老龄化趋势的加剧,子宫内膜癌的发病率呈逐年上升趋势。本文将...

神马SEO 2024-12-23 阅读0 评论0