纪录片《编码歧视》:客观的算法是不存在的

全文共2045字,预计学习时长6分钟

图源:unsplash

弗洛伊德之死掀起了美国乃至全球各地又一轮反对种族歧视的运动,人们对结构性不平等的认识也进一步提高了。尽管大众关注的焦点是美国警察的暴行,但也有许多学者、活动家和艺术家发出警告——全面的种族主义是如何通过通讯和监控技术在科技行业等其他领域被加剧的。

在沙里尼·坎塔亚的纪录片《编码歧视》中,导演跟随麻省理工学院媒体实验室研究员、算法正义联盟(algorithmic justice League)创始人乔伊·布兰维尼,发现了面部识别的一个根本问题:布兰维尼意识到计算机视觉软件无法跟踪她的脸,但当她戴上白色面具时,效果却很好。这是面部识别和人工智能系统中存在歧视的最新证据。

坎塔亚与布兰维尼一起采访了作家、研究人员和活动家,例如凯茜·奥尼尔、梅勒迪斯·布鲁萨德、萨菲亚·诺布尔和西莉·卡洛,探讨了面部识别或犯罪预测等软件目前存在的技术问题。这些技术常常与种族监控、优生学或人相学等黑暗的历史实践有关。

这部在圣丹斯电影节上放映的影片,以批判的眼光审视了假定的算法“客观性”,奥尼尔将其定义为“利用历史信息对未来做出预测”。虽然算法通常被看作是公正、客观且理性的,但它们可以重现创造者的偏见。

布鲁萨德说,我们给科技灌输了“神奇的思维”,这虽然赞扬了它的好处,却掩盖了它的负面影响。

图源:第七帝国传媒

《编码歧视》纪录片展现了算法歧视对现实世界产生负面影响的。影片描述了休斯顿的一个学区如何在其“增值”教师评价系统中使用秘密算法,该算法甚至将获奖教师归类为“差老师”;警察使用的面部识别软件也经常将黑人误判为嫌疑犯。

影片还展示了深深植根于我们生活中的技术如何增强了现有的不对称权力动态。影响人们生活的算法通常隐藏在“黑匣子”中,它们由大型科技公司建立,利用所有权保护政策来阻止公众了解其算法如何工作,公司正在收集我们的数据。

坎塔亚通过电话向OneZero讲述了她是如何了解算法歧视的,她希望《编码歧视》纪录片能够帮助公民理解并保护自己的权利。《编码歧视》将于今年秋季在部分影院上映。

Q:您是如何开始了解算法歧视的?是什么启发您拍了一部关于它的电影?

坎塔亚:我的很多工作都是关于颠覆性技术,以及它们是如何让这些技术或多或少变得公平和平等的。我常常思考关于种族、性别和阶级的问题,而且我还发现了像乔伊·布兰维尼、凯茜·奥尼尔和泽伊内普·图菲克希等女性的作品。我开始对大型科技公司的黑暗面感兴趣,同时这也让我陷入了困境。

图源:unsplash

Q:影片中有哪些算法歧视的例子?

亚马逊曾经有一种算法,技术本身无法歧视,但该算法在招聘实践和保留方面借鉴了过去的性别歧视,并开始挑选出简历上有女子大学或体育经历的女性。所以,这个人工智能在招聘过程中会不自觉地歧视女性。

电影的核心部分是面部识别在深色面孔或女性身上的效果不佳,而这些人是最容易被种族定性的目标。就在最近,底特律的一名男子因面部识别错误而被拘留了30个小时,这种例子实在是太多了。

Q:正在开发该技术的公司和人员,需要做些什么来消除算法中的编码歧视呢?

我的电影的观众实际上并不是技术人员,而是公民。公司在招聘时应该更负责任,更具包容性吗?当然,但我的关注点并不是公司。对我来说,我并不是要制定一个完美的算法,而是想要建立一个更加人性化的社会。

这部电影的关注点是让公民去理解这些工具,以便我们可以使用法律和保护措施来防止这些歧视行为的发生;这样一来,就不会任由科技公司把他们的技术卖给联邦调查局、警察或其他没有被选举出来的人参与的企业。企业做这件事并不比政府做得更好,公民需要开始要求谷歌公司和苹果公司不要复制这种独裁的监控技术。

图源:unsplash

Q:普通公民可以通过哪些方式来对抗这些监控系统?

现在正是科技巨头该倾听的时刻。上个月,美国国际商用机器公司表示,它将基本退出面部识别项目,即停止研究、停止提供服务和停止销售。亚马逊表示将暂停向警方出售产品一年,微软公司也将停止向警方出售产品。

正因为我们有机会在街头举行争取平等的运动,我们才有机会通过意义非凡的立法。我们需要推动立法者,将我们的数据信息作为人权的一部分加以保护,并保护我们远离侵犯公民权利的侵略性技术。

图源:unsplash

技术中立,可技术背后的人有偏向,如何约束根植在渊源中的歧视与偏见,仅仅靠科技公司的自觉是不够的,需要我们的大声疾呼。

留言点赞关注

我们一起分享AI学习与发展的干货

如转载,请后台留言,遵守转载规范

打开APP阅读更多精彩内容