警告:英国政府在公众身上使用的AI工具存在“种族主义和偏见”
人工智能和算法工具在中央政府中的使用将会在警告称其可能存在“根深蒂固”的种族主义和偏见后,被公开发布在公共注册上。
官员们在本周末确认,一些受到活动人士挑战的工具由于涉嫌保密和存在偏见的风险,将很快被公布。这些技术已被用于一系列目的,从试图侦测假结婚到揭露福利索赔中的欺诈和错误。这一举措是活动人士的胜利,他们一直在挑战AI在中央政府的部署,因为公共部门很可能会迅速推广这项技术。 公共法律项目(PLP)的高级研究员卡罗琳·塞尔曼表示,有关这些系统的存在、详情和部署存在透明度不足。“我们需要确保公共机构发布有关这些工具的信息,这些工具正在被快速推广。所有人都有兴趣确保采用的技术是合法、公平和非歧视性的。” 2020年8月,内政部同意停止使用一个计算机算法来帮助分类签证申请,因为有人声称其中包含“根深蒂固的种族主义和偏见”。在移民事务联合理事会和数字权利团体Foxglove的法律挑战之后,官员们暂停了该算法。Foxglove声称某些国籍会被自动给予“红色”交通灯风险评分,而这些人更有可能被拒绝签证。他们表示这一流程等同于种族歧视。 去年该部门还因使用检测用于规避移民控制的假结婚的算法工具而受到挑战。PLP表示,这似乎会歧视来自某些国家的人,而慈善机构透露的平等评估显示,保加利亚、希腊、罗马尼亚和阿尔巴尼亚人更有可能被提交调查。 政府的数据伦理与创新中心,现在的负责技术采用的部门,在2020年11月的一份报告中警告称,有许多例子表明新技术“根深蒂固或放大了历史性的偏见,甚至创造了新形式的偏见或不公平”。该中心帮助制定了公开部署AI和算法工具的算法透明度记录标准。它建议需要发布与公众交互或对决策产生重大影响的模型在一个注册或“存储库”中,其中包含它们的使用方式和原因。
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。
警告:英国政府在公众身上使用的AI工具存在“种族主义和偏见”