面部识别技术

Whatsapp
Facebook
Twitter
Instagram
Telegram

通过 塞尔吉奥·阿马德乌·达·西尔维拉*

对社会造成极其有害影响的风险.

当前的新自由主义至上主义强化了一种逻辑,即必须使用所有发明的技术。 这种想法的一个变体可以在“当一项技术具有商业利益时,没有办法阻止它”这句话中找到。 然而,事实表明了其他可能性。 许多技术被禁止,而其他技术则在一段时间后被禁止。

例如,化学武器被认为是不可接受的,民主国家不使用它们。 一些杀虫剂已被废除,例如危险的 DDT。 2015 年,包括诺姆·乔姆斯基 (Noam Chomsky) 和斯蒂芬·霍金 (Stephen Hawking) 在内的数百位名人签署了一封题为“自主武器:来自人工智能和机器人研究人员的公开信》呼吁禁止人工智能武器。 欧盟已暂停转基因技术五年多。 最后,一些技术一直受到民主国家的监管,因为它们的制造或使用可能会给社会带来风险和极其有害的影响。

目前,全球范围内禁止面部识别技术的动员正在增长。 2019 年,在大流行之前,加利福尼亚州旧金山的立法者决定禁止当地机构(包括警察和交通部门)使用面部识别。 它还定义了任何监控技术都需要得到城市管理人员的批准,不能再被认为是一个专门的技术决定。 原因很简单。 面部识别的好处不会超过其风险和危险用途。 据几位旧金山市议员称,这项技术已被用来进一步削弱边缘化的社会群体。

据安全观察站网络称,在巴西,因面部识别而被捕的人中有 90% 是黑人。 基于人脸的身份识别生物特征识别通常使用所谓的身份识别算法。 深入学习 或深度学习,人工智能技术的伞状分支之一,它依赖大量数据来获得可接受的质量。 通常,这些算法在照片数据库上进行训练,以改进面部图案提取及其识别面部的能力。

麻省理工学院媒体实验室研究员 Joy Buolamwini 证明机器学习算法可以根据阶级、种族和性别进行区分。 在与 Timnit Gebru 签署的文本中,称为 性别差异:商业性别分类中的部门间准确性差异, Buolamwini 从一组照片中分析出 3 个商业性别分类系统。 他们发现,肤色较深的女性是最容易被错误分类的群体(错误率高达 34,7%)。

了解算法面部识别系统的工作原理很重要。 它是一个自动化过程,将相机或采集设备捕获的图像与数据库中存储的图像进行比较。 该算法的首要任务之一是能够检测图像中的人脸。 检测到人脸后,需要将其对齐,虚拟地放置在某个位置,以便于下一阶段,即测量值的提取。 该算法根据其先前的训练,将测量眼睛之间的距离、眼睛与鼻子之间的距离、嘴巴的位置、皮肤的纹理,简而言之,它将从图像中提取测量值,它将量化它。

然后,根据您的模型,您将量化图像与扫描并插入数据库的每张照片进行比较。 因此,该算法会在比较两张图像、两张脸、一张您的目标和存储在数据结构中的一张时给出一个分数。 正如我在这里试图展示的那样,识别系统是概率性的。 他们无法回答该图像是否属于某个人。 它们提供相似性和差异性百分比。

一些系统可以提供几个图像的比较百分比,并提供人脸替代品来识别某个目标。 算法训练对于能够从照片中提取图案至关重要,因为它们必须从不同位置的图像中提取图案。 这个过程需要数千张照片来进行训练。 他们通常需要由人类进行加固和标记。

使用面部识别系统的军用无人机的行动可以帮助我们理解这个问题。 研究员 Gregory S. McNeal,在文中“附带损害估计和减轻的美国实践”,分析了无人机攻击的副作用。 这种无人驾驶飞行器具有高分辨率相机,可以识别目标。 麦克尼尔评估了无人机在伊拉克和阿富汗造成平民死亡的附带损害。 得出的结论是,其中70%是由于身份检测错误,即所谓的“正面识别”失败。 但是在概率系统中什么是肯定的识别呢? 80%的相似度? 90%? 98%? 我们认为已检测到通缉犯的可接受百分比是多少?

面部识别是一种生物识别,构成了所谓的敏感数据类别。 他们可以制造污名。 他们需要从预防原则分析他们的用途。 它们目前用于识别危险阶层和边缘化群体。 它们允许实时追踪目标。 自动面部识别系统强化了社会中的偏见并扩大了结构性种族主义,并助长了对同性恋者、变性者和不受欢迎的警察活动家的骚扰。 它们是骚扰、警惕和迫害的技术。

在巴西,我被认为是白人。 考虑到我的年龄和体型,如果警察算法系统在我居住的中产阶级社区的摄像头中误认出我,它可能会采取更文明的方法。 它甚至可以被带到警察局。 在那里将检测到面部识别系统的错误并报告“误报”。

然而,想象一下,一名年轻的黑人男子从 Jardim Ângela 或 Sapopemba 下班,被面部识别系统错误地识别为危险的罪犯。 根据接近他的罗塔部队,他可能没有任何活命的机会。 我声称面部识别技术在今天可以为灭绝边缘地区的年轻黑人的做法做出贡献。 他们可以在政治上迫害社会运动的领导人,特别是在民兵与国家机器并列的地区。

此外,生物特征识别是旧优生设备的典型设备。 它们用于识别欧洲和美国的移民和不受欢迎的群体。 在中国,他们服务于民主制度下不可接受的威权主义。 被连接到执行非推荐行为的面部识别系统的摄像头识别的人的分数将被改变,并且将难以从国家获得利益。

如果没有防御的可能性,也无法对识别的概率模型提出质疑,民主国家不能接受通过摄像头为面部识别系统提供无处不在的警务。 我们需要阻止它的扩张。 事实上,如果我们想与预防原则保持最低限度的一致性,我们就需要禁止它们。 我们不能使用一种使用有缺陷的算法系统的技术,该系统仍然无法提供充分的解释。 我们需要禁止面部识别技术,直到它们在社会上成为非歧视性的、可审计的和更安全的。

*塞尔吉奥·阿马杜·达·西尔维拉 是 ABC 联邦大学的教授。 作者,除其他书籍外, 自由软件——为知识自由而战 (康拉德)。

 

查看作者的所有文章

过去 10 天内阅读最多的 7 篇文章

查看作者的所有文章

搜寻

研究

THEMES

新刊物