
美国出品的纪录片《编码歧视》(Coded Bias 2020),以深刻的视角聚焦当下社会中隐匿在技术背后的种族歧视问题。该片采用英语中字呈现,技术规格达 1080P 高清分辨率,搭配 MP4 格式,文件大小约 2.17G。1080P 高清画质确保了画面的清晰度,无论是人物访谈时的细微表情,还是数据图表、实验演示的细节,都能精准还原,让观众不错过任何关键信息;英语中字既保留了原声内容的原汁原味,又通过准确的中文翻译,打破语言障碍,方便不同语言背景的观众深入理解影片所探讨的复杂议题;MP4 格式兼容性极佳,在电脑、手机、平板等各类播放设备上均可流畅播放,随时随地为观众开启这场关于技术与歧视的深度探索之旅。

影片缘起于麻省理工学院媒体实验室研究人员的一项惊人发现 —— 面部识别技术在识别皮肤黝黑的面孔时存在显著的不准确问题。这一发现如同一颗投入平静湖面的石子,激起千层浪,引发了大众对算法偏差影响的广泛关注,也成为推动美国首次立法治理偏差算法的重要契机。
在科技飞速发展的当下,人工智能技术已广泛渗透到广告、金融、公共事务等各个领域。本纪录片敏锐地捕捉到,看似客观、中立的人工智能算法,实则延续了社会中固有的种族、阶层以及性别歧视。麻省理工大学的黑人女性人工智能研究员布兰薇妮(Joy Buolamwini)便是深受其害的典型例子。在研究过程中,她发现自己的脸部无法被识别,而当戴上一个纯白色的面具后,识别系统却能轻松 “认出” 她。这种现象背后,是严重的 “算法偏见”。因为人工智能学习的数据大多来源于浅肤色人种和男性,导致其在设计之初就 “先天” 地忽视了黑人和女性群体,使得这些群体在依赖算法的诸多场景中,面临着不公平的对待。

纪录片进一步指出,算法偏见并非个例,诸多歧视性事件已随着算法应用的普及逐渐浮出水面。例如亚马逊公司的人工智能招聘系统,因学习材料来自过去 10 年公司录用的以男性居多的简历数据,导致该算法学会了歧视女性应聘者,简历中出现 “女性” 字眼便会降低应聘者的 “得分”。又如全球线上求职平台凯业必达(CareerBuilder)2017 年的调查显示,约 55% 的美国人力资源经理表示,未来五年内人工智能技术将在日常招聘工作中普遍应用,这意味着算法偏见可能在招聘环节进一步加剧社会的不平等。

而人脸识别技术中的算法偏见问题,更是本片关注的重点。2019 年 12 月,美国联邦机构国家标准暨技术研究院(NIST)发表报告指出,相较于白种人,黑人和黄种人的人脸识别错误率高出 10 倍至 100 倍不等,在执法机关的人脸图片库中,美国原住民的识别错误率最高,同时女性和老人的脸部也更难被识别。这些数据基于对美国签证申请和过境数据库中的 1800 万张人脸照片测试了 189 种人脸识别算法得出,具有广泛的代表性,反映出商业应用算法中普遍存在的问题。

这一技术缺陷带来的后果极为严重,黑人可能因错误的识别技术受到不公正对待。今年 1 月,美国底特律黑人男子威廉斯(Robert Williams)就因被人脸识别技术错误识别,被关在看守所长达 30 小时。当地警察局依据存在算法偏见的人脸识别技术,认定他是两年前一家高级时装店失窃案的嫌疑犯,尽管他上一次到该商店还是 2014 年。最终,在五个月后,当地检察官就威廉斯的遭遇道歉,其案件也撤诉,但这一事件只是冰山一角,类似因算法偏见导致的错案或许还有很多,只是未被大众知晓。

面对算法偏见这一严峻问题,社会各界也在积极行动。科技公司开始意识到问题的严重性,亚马逊和微软在 2020 年 6 月相继公开表示,将停止向执法机构出售人脸识别软件,IBM 更是致信美国国会,表明不会再研发人脸识别技术,并呼吁就执法机构使用人脸识别技术的问题展开全国对话。同时,一些科技公司还在试图修复算法中的歧视问题,如伦敦的科技公司 Synthesized 推出免费工具,用于修复算法中的种族、性别、年龄、性取向等方面的歧视问题。而作为普通公民,也可以通过推动技术使用规范化的立法等行动,保障自身权利免受技术侵入的损害,正如《编码歧视》的导演坎塔亚(Shalini Kantayya)所倡导的那样。

《编码歧视》这部纪录片通过详实的案例、专业的研究数据以及深度的访谈,深刻揭示了隐藏在人工智能算法背后的种族歧视问题,引发大众对科技发展与社会公平的深入思考。它不仅为那些长期遭受算法偏见不公对待的群体发声,也为科技行业敲响警钟,督促其在追求技术进步的同时,重视算法的公正性与包容性。对于关注社会公平、科技伦理的观众而言,这是一部不容错过的佳作,它将带领大家深入剖析技术背后的社会隐患,探寻构建更加公平、公正社会的可能路径。

