(单选题)
图像识别的人工智能(AI)总是把男人认成女人,认错的图片有一些共同点——都是站在厨房里或者在做家务。换句话说,这是一个会“性别歧视”的AI:它认为站在厨房里的就“该”是女人。课题研究员认为,人工智能总把女人和某些特定的元素联系在一起,在下达判断时被这些元素带跑了。因此,我们需要用技术方式去调整、弥合这个偏差,减少AI的偏见和错误。
以下哪项为真,能够质疑研究员的观点?
A.调偏的算法会衡量数据库的性别元素和偏见状况,并用它来纠正识别的预测结果,机器在性别方面的识别偏见能够减少40%以上
B.算法似乎太过在意你的输入,把原始数据太当真了。如果数据质量很高,那自然不是问题;但现在原始数据里已经有了偏见,算法就会进一步把它放大
C.那些被机器无意拾取的错误、歧视和偏见,其实长期存在于我们周围,技术人员拥有了大量的数据,但却对数据、乃至数据背后的社会现实缺乏考虑
D.许多数据库中,标签和性别绑定的程度十分突出,比如站在厨房里、做家务、照看小孩子的就被认为是女性,开会、办公、从事体育运动的则是男性
参考答案:C
知识点:削弱论证 判断推理 逻辑判断 招警 行测