<kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

              <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                      <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                              <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                                      <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                                              <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                                                      <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                                                              <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                                                                      <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                                                                              <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                                                                                  查看内容

                                                                                  918博天堂COM_皮肤不白,会遭到人脸辨认技能的 “小看”?

                                                                                  【腾讯科技编者按】《纽约时报》克日颁发文章,,称人脸辨认技能的成长迩来可谓突飞猛进,今朝已经有一些贸易软件可以用来辨认照片中人物的性别,当照片中的人是白人时,99%的环境下辨认功效都是正确的,但假如照片中是黑人,错误率就较量高了。以下为原文内容:

                                                                                  人脸辨认技能在辨认差异种族和性此外人脸时,结果有多大的差异呢?一项新的研究对此举办了丈量,功效表白,肤色越黑,辨认率就越低。在辨认黑皮肤女性时,它的错误率险些到达了35%。

                                                                                  MIT媒体尝试室的研究员乔伊o布兰威尼(Joy Buolamwini)举办的这项研究,表现了实际天下中的一些成见已经渗出到了人工智能(AI)规模,由于人脸辨认技能就是成立在AI之上的。

                                                                                  在计较机视觉技能中,颜色很重要

                                                                                  行使微软、IBM和Face ++的人脸辨认算法在辨认黑人女性时,错误率高于辨认白人男性。

                                                                                  皮肤不白,会遭到人脸识别手艺的 “鄙视”?

                                                                                  在一组385张肤色较白的男性照片中,性别判定的错误率为1%。

                                                                                  皮肤不白,会遭到人脸识别手艺的 “鄙视”?

                                                                                  在一组296张肤色较白的女性照片中,性别判定的错误率为7%。

                                                                                  皮肤不白,会遭到人脸识别手艺的 “鄙视”?

                                                                                  在一组318张肤色较黑的男性照片中,性别判定的错误率为12%。

                                                                                  皮肤不白,会遭到人脸识别手艺的 “鄙视”?

                                                                                  在一组271张肤色较黑的女性照片中,性别判定的错误率为35%。

                                                                                  在当代AI技能中,数据是要害。 用来实习AI的数据有多好,AI结果就会有多好。假如实习数据中的白人男性比黑人女性多,那么它辨认黑人女性的手段就较量差。

                                                                                  另一项研究陈诉表现,在一种得到普及行使的人脸辨认数据齐集,75%以上的图像都是男性,80%以上是白人。

                                                                                  因此这项新的研究就提出了一个题目:当AI得到的投资额和回收量日益增添时,AI的公正性和问责性又该怎么担保呢?

                                                                                  本日,贸易公司正以各类方法陈设人脸辨认软件,个中就包罗按照交际媒体上的资料图片来对产物举办精准宣传。可是,一些公司也正在实行把人脸辨认和其他AI技能纳入到一些自动决定进程中,好比雇用和贷款决定。

                                                                                  乔治城大学法学院的研究职员预计,法律部分的人脸辨认收集涵盖了1.17亿美国成年人的数据(警方拍摄的罪犯或怀疑犯的面部照片),而非洲裔美国人最有也许被挑出来,由于他们在这个数据库中占的比例分外高。

                                                                                  人脸辨认技能受到的禁锢还很少

                                                                                  犹他大学计较机科学传授Suresh Venkatasubramanian说:“此刻是时辰了,我们要当真研究AI体系的事变方法和题目,要从社会角度向它们问责。”

                                                                                  之前已经有一些计较机视觉技能失足的例子,表现存在着小看。譬喻在2015年,谷歌的图像辨认照片app把非洲裔美国人标志为“大猩猩”,其后谷歌为此道了歉。

                                                                                  哈弗福德学院的计较机科学家索列尔o弗里德勒(Sorelle Friedler)说,专家们早就猜疑人脸辨认软件对差异人群的结果差异。

                                                                                  “但这是我所知道的第一个表现存在这种差异的研究,”弗里德勒说。

                                                                                  28岁的布兰威尼长短裔美国计较机科学家,曾经验过人脸辨认成见。她在乔治亚理工学院就读本科时,人脸辨认技能对她的白人伴侣们来说结果很好,可是却无法辨认出她的脸。她其时认为这个缺陷在不久之后就会修复。

                                                                                  可是几年后,当她进入MIT媒体尝试室时,又再次碰着了这个题目——只有当她戴上白色面具后,软件才气将她的脸辨认出来。

                                                                                  当时,人脸辨认软件正在日益走出尝试室,进入主流社会。

                                                                                  “这是个很严重的题目,”她回想说。 “是时辰做点工作了。”

                                                                                  于是她将留意力转向与数字技能中的成见作斗争。布兰威尼此刻在读博,作为罗德学者和富布赖特研究员,她建议“算法问责制”,致力于让自动化决定变得越发透明、有表明力,以及公正。

                                                                                  她在TED上关于“编码成见”的演讲视频赏识量已经高出94万次,她还创建了 “算法公理同盟”,这个项目旨在增长人们对这个题目的熟悉。

                                                                                  对三家公司人脸辨认软件举办的尝试

                                                                                  布兰威尼将在本月一个集会会议上先容一篇最新颁发的论文。她为这篇论文研究了微软、IBM和中国旷视科技这三家公司的人脸辨认体系的机能,对它们辨认差异肤色用户的性此外结果举办了权衡。她之以是选择这些公司,是由于它们的人脸说明软件提供了性别判定成果,而且它们的代码已经果真宣布,可以用来测试。

                                                                                  她发明,这三家公司软件的辨认结果有待进步。

                                                                                  布兰威尼为该测试成立了一个数据集,共有1270张人脸,行使的是女议员较多的国度的议员面部图像,包罗三个以黑皮肤为主的非洲国度,以及三个以白皮肤为主的北欧国度。

                                                                                  然后她按照皮肤科大夫行使的 “六点符号系统”对非洲和北欧的这些人脸资料举办评分,对皮肤举办分类。相对付种族分类,医学分类越发客观和精确。

                                                                                  她再对这些人脸图像举办性别和肤色上的弃取,然后行使三家公司的软件来辨认它们。微软辨认黑皮肤女性的错误率是21%,而IBM和Megvii的错误率则靠近35%。三家公司在辨认白皮肤男性时的错误率都低于1%。

                                                                                  布兰威尼宣布这项研究的成就之后。 IBM颁发声明说,该公司已经稳步改进了人脸说明软件,郑重致力于“不带成见”和“透明度”。IBM暗示将在本月推出的软件进级版在辨认肤色较深的女性时,准确度会进步近10倍。

                                                                                  微软则暗示它已经“已经采纳法子来进步人脸辨认技能的精确性”,而且正在投入资源,研究怎样“辨认、领略和消除成见”。

                                                                                  布兰威尼说,旷视科技的Face ++软件普及应用于中国的在线付出和网约车处事,但该公司没有回覆置评哀求。

                                                                                  布兰威尼宣布了她的数据集,供其他人行使。她称本身的研究是“办理方案的出发点,根基上是第一步”。

                                                                                  布兰威尼还采纳了进一步的动作,她与IEEE(一家大型计较机专业组织)相助,创立了一个团队,为人脸说明软件拟定问责制和透明度尺度。

                                                                                  她还按期与其他存眷AI影响的学者、民众政策组织和慈善机构谋面。福特基金会主席达伦o沃克(Darren Walker)暗示,这种新技能也许是一个“机遇平台”,但假如它复制并放大了已往的成见和小看,就施展不了浸染。

                                                                                  沃克说:“数字天下正在举办一场公正、海涵和公理之战。”(编译/云开)