美国研究人员测试IBM与微软等业者推出的脸部识别技术准确度后发现, 接受测试的服务在白肤色人种上准确度较高, 黑肤色人种准确度偏低. 报告指出, 其原因在于原始训练演算法上黑肤色人口较少. 专家也呼吁, 业者在目前识别技术准确度资讯上应更加透明. 据Wired报导, 研究人员测试过微软与IBM识别照片上性别的脸部分析服务, 结果发现上述公司演算法在识别较白肤色的男性准确度接近百分百, 但分析黑肤色女性时则经常出错, 其原因在于, 利用机器学习技术打造脸部分析演算法的训练数据中较黑肤色较少. 过去Google的照片分类服务便曾将黑人标示为黑猩猩而令外界诧异, 因此, 如何确保部署在消费性产品, 商用系统与政府程式的机器学习系统无虞, 已是人工智能(AI)领域重要讨论课题. 2016年乔治城大学(Georgetown University)报告曾指出, 已被FBI与各地警察局部署的脸部识别技术的准确度在非裔美国人上偏低. 在这次新的研究, 麻省理工学院(MIT)研究人员Joy Buolamwini与微软研究人员Timnit Gebru则在识别系统中投入1,270张欧洲与非洲国会议员的相片, 而且是利用费式量表(Fitzpatrick scale)分类系统. 这次相片集被用来测试微软, IBM与大陆新创公司Megvii旗下Face++识别脸部的云端服务, 研究人员锁定在3种服务的性别侦测功能上. 结果发现这3种服务在男性脸孔准确度比女性高, 较白肤色比黑肤色来得佳, 所有服务对于拥有较黑肤色的女性上, 准确度都不高. 微软在识别肤色较白男性时全答对, IBM错误率则为0.3%, 但在识别较黑肤色女性时, 微软错误率为21%, IBM与Face++都为35%. 评论指出, 提供随选机器学习演算法的服务已成为大企业竞争的热区, 微软, IBM, Google与亚马逊(Amazon)都宣传云端是适合从语法上分析影像与文字意义等任务来作为诸如运动, 医疗与制造业引进AI能力的途径, 但是同时, 客户却也可能得被迫接受其局限. 针对视障民众开发智能眼镜的新创公司Pivothead便是利用微软AI服务的客户之一, 不过, 微软的技术文件中指出, 性别识别以及其他情绪和年纪等脸部特征目前都属于实验性, 并非完全准确. 对此, 前美国总统欧巴马(Obama)任内的首席资料科学家DJ Patil指出, 这次报告凸显, 科技公司必须确保其机器学习系统在所有种类人类上适用的重要性, 而且业者也必须针对其服务仍存在限制一事更加公开. 微软目前在重视机器学习道德议题上则努力扮演领导的角色, 该公司许多研究人员正投入该领域并成立内部AI与工程及研究道德委员会(Aether). 该单位在2017年曾参与稽核工作, 发现微软分析脸部表情的云端服务在儿童上表现欠佳.