<kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

              <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                      <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                              <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                                      <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                                              <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                                                      <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                                                              <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                                                                      <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                                                                              <kbd id='cc0uTispOE7b6Uu'></kbd><address id='cc0uTispOE7b6Uu'><style id='cc0uTispOE7b6Uu'></style></address><button id='cc0uTispOE7b6Uu'></button>

                                                                                  查看内容

                                                                                  918博天堂COM_人脸辨认有小看?辨认精确率黑人比白人差许多,厂商们这样回应

                                                                                  原问题:人脸辨认有小看?辨认精确率黑人比白人差许多,厂商们这样回应

                                                                                  2 月 9 日,纽约时报英文网站颁发一篇文章,指出现在很是热点的 AI 应用人脸辨认,针对差异种族的精确率差别庞大。个中,针对黑人女性的错误率高达 21%-35%,而针对白人男性的错误率则低于 1%。

                                                                                  文章引用了 MIT 媒体尝试室(MIT Media Lab)研究员 Joy Buolamwini 与来自微软的科学家 Timnit Gebru 相助的一篇研究论文《性别图谱:商用性别分类技能中的种族精确率差别》(Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification)中的数据。

                                                                                  论文作者选择了微软、IBM 和旷视(Face++)三家的人脸辨认 API,对它们举办性别鉴定的人脸辨认成果测试。以下为两组精确率差别最大的人群。

                                                                                  人脸识别有鄙视?识别准确率黑人比白人差很多,厂商们这样回应

                                                                                  在一组 385 张照片中,白人男性的辨认偏差最高只有 1%

                                                                                  人脸识别有鄙视?识别准确率黑人比白人差很多,厂商们这样回应

                                                                                  在一组 271 张照片中,肤色较黑的女性辨认偏差率高达 35%

                                                                                  图源:纽约时报,Joy Buolamwini, M.I.T. Media Lab

                                                                                  论文研究行使了自行网络的一组名为 Pilot Parliaments Benchmark (PPB) 数据集举办测试,内里包括 1270 张人脸,别离来自三个非洲国度和三个欧洲国度。

                                                                                  在判定照片人物性别方面,以下是论文作者测试后获得的要害发明:

                                                                                  全部的分类器在辨认男性人脸上的示意要优于女性人脸(8.1%-20.6%的错误不同)

                                                                                  全部分类器在肤色较白的人脸上示意优于肤色较深的人脸(11.8%-19.2%的错误不同)

                                                                                  全部分类器在肤色较深的女性人脸上示意最差(错误率在 20.8%-34.7% 之间)

                                                                                  微软和 IBM 的分类器在浅肤色男性人脸上示意最好(错误率别离为 0% 及 0.3%)

                                                                                  Face++ 的分类器在肤色较深的男性人脸上示意最好(错误率 0.7%)

                                                                                  最差的一组与最好的一组差距高达 34.4%

                                                                                  必要指出的是,三家人脸辨认 API 都没有很细节地表明本身所行使的分类要领,也没有说起本身所行使的实习数据。

                                                                                  不外,微软在处事中表白“不必然每次都有 100% 的精确率”;Face++ 则出格在行使条款中表白瞄精确性不予担保。

                                                                                  关于也许的缘故起因,时报文章暗示,当下的人工智能是数据为王,数据的优劣和几多会影响 AI 的智能水平。因而,假如用来实习 AI 模子的数据齐集,白人男性的数据多于黑人女性,那么体系对后者的辨认手段就会不如前者。

                                                                                  现有的数据齐集存在这一征象,好比按照另一项研究的发明,一个被普及行使的人脸辨认数据齐集,75% 都是男性,同时 80% 是白人。

                                                                                  旷视在给雷锋网的回应中暗示,深色人种数据集较量可贵到,以是会差一些;其它,行使 RGB 摄像头举办人脸辨认时,深肤色人的人脸特性较量难找,出格是在暗光前提下,这也是一方面的缘故起因。

                                                                                  IBM 回应:论文用的版本太老,新版已改进

                                                                                  针对 Buolamwini 和 Gebru 的这一论文发明,2 月 6 日,IBM 在自家的 IBM Research 博客上颁发了一篇回应文章。

                                                                                  文章并未否定论文的发明,而是指出,IBM 的 Watson Visual Recognition 处事一向在一连改进,在最新的将于 2 月 23 日推出的新版处事中,行使了对比论文中更普及的数据集,拥有强盛的辨认手段,对比论文中的错误率有近 10 倍的降落。

                                                                                  随后文章中暗示 IBM Research 用相同论文中的要领举办了尝试,发明如下:

                                                                                  人脸识别有鄙视?识别准确率黑人比白人差很多,厂商们这样回应

                                                                                  功效表现整体的错误率都很低,固然肤色较黑的女性的错误率如故是全部人群中最高的,但对比论文的功效有很大降落。

                                                                                  旷视回应:深肤色人种辨认错误率高是广泛征象,在商用产物中会改进

                                                                                  雷锋网针对这篇论文向旷视寻求回应,对方给以了很是具体的解答。回应中,旷视起首对论文的研究要领暗示承认,但同时指出研究所用的线上 API 是较旧的版本,在商用的产物中不会呈现这类题目;并且,此类题目也是业内广泛存在的,不只限于测试的这三家。缘故起因首要有两点,一是深色人种数据集的缺乏,二是深色人种人脸特性较难提取。

                                                                                  以下为回应全文:

                                                                                  我们信托文章(论文)立意不是针对哪一家的技能,根基是不吹不黑的中立立场,并且从文章的测试要领来看照旧较量科学的,可是文章中所用的“PPB”( Pilot Parliaments Benchmark)数据集在 GitHub 的宣布地点已经失效,以是我们今朝无法自行检测以验证文章的结论。

                                                                                  在集成到 Face++ API 中的时辰,旷视研究院有针对差异人种举办检测、辨认等测试。可是就今朝国际范畴内的研究程度来说,不管是在学界照旧财富界,对付肤色人种的辨认示意都没有对“肤色较浅(引用文章用词)”人种优越,以后文的测试功效中也可以看出,微软、IBM 和 Face++ 在肤色较深人种识此外示意中(尤其是肤色较深女性)呆板的误实率会更高。

                                                                                  一方面从人类基因和人脸辨认技能角度来说,皮肤的颜色越深对付基于 RGB 可见光的人脸识此外难度就越大,由于呆板在举办人脸检测、说明和识此外进程中必要对人脸图像举办预处理赏罚和特性提取,以是皮肤颜色越深,面部的特性信息就越难提取,尤其是在一些暗光环境下,越发难以检测和区分。另一方面,人脸辨认很洪流平上依靠于数据实习,而在整个行业中玄色人种的可实习数据量较少,以是识此外功效在某些水平上不尽人意,以是文章泛起的测试功效是行业广泛存在的征象。文章中只是选取了三家行业代表来举办了测试,假如样本量足够大,那也许还会得出其他的结论。

                                                                                  不外测试功效也表现,Face++ 对付黑人男性的辨认错误率(0.7%)是最低的,且在 PPB 的南非子测试齐集,Face++识 别肤色较浅人种的示意是美满无瑕的,这些着实也间接声名 Face++ 的人脸辨认手段是处于环球领先的职位。

                                                                                  文章作者提出了一个很好的题目,但文章中测试的 API 线上版本和我们为用户提供的贸易版本无关,用户在营业行使中不会有任何影响。

                                                                                  分享: